目前没有实现,理一下思路,有3中途径:
1:spark core可以使用sequoiadb最为数据源,那么是否spark sql可以直接操作sequoiadb。 (感觉希望不大,)
2: spark sql支持Hive, sequoiadb可以和hive做对接,那么是否可以通过HIveContext 来实现。 (希望比1大,但是要看运气)
3:spark 1.2以后支持了external datasource ,需要实现相关的接口来对接第三方数据源。(最靠谱,可是需要时间实现)
时间: 2024-11-10 15:42:14