我找不到好的源代码来尝试将位于本地计算机上的 pandas 数据帧写入 hadoop 集群的 HIVE 数据库。
我可以使用 pyodbc 和 odbc 驱动程序查询表并将其转换为 pandas 数据帧,但我不能将 pandas 数据帧写入 hive 表。
我应该使用 sqlalchemy 还是 pyodbc?我可以看到一些使用 DSN 或帐户进行 kerberos 身份验证的示例吗?
from pyhive import hive
from sqlalchemy import create_engine
engine = create_engine('hive://myDSN')
engine.connect()
import pyodbc
pyodbc.autocommit = True
connection = pyodbc.connect('dsn=myDSN', autocommit = True)
sqlalchemy 说我无法连接到任何端口,但 pyodbc 连接没问题。