-
Notifications
You must be signed in to change notification settings - Fork 103
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
血缘 #4
Comments
我看到可以根据spark/flink jar 解析任务,任务只能是 使用 spark-sql 吗?还是也可以使用 dataset 或 dataframe api 解析 |
我们已经平台化,数据限制全部表存储,链接api 读取表数据,spark sql,jar,pyspark中只能sql 方式读取数据,只需要解析sql 就可以。 |
为什么不做hive的血缘呢?是用的spark sql吗?
…------------------ 原始邮件 ------------------
发件人: ***@***.***>;
发送时间: 2021年4月21日(星期三) 下午5:25
收件人: ***@***.***>;
抄送: ***@***.***>; ***@***.***>;
主题: Re: [melin/dataworker-sql-parser] 血缘 (#4)
我看到可以根据spark/flink jar 解析任务,任务只能是 使用 spark-sql 吗?还是也可以使用 dataset 或 dataframe api 解析
我们已经平台化,数据限制全部表存储,链接api 读取表数据,spark sql,jar,pyspark中只能sql 方式读取数据,只需要解析sql 就可以。
—
You are receiving this because you authored the thread.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
大数据平台一开始就只使用spark,没有使用hive,hive性能也比较差,所以没有做hive血缘,hive 有各种hook,或者用ranger,比较好做血缘。 |
可以实现字段级别血缘吗?
The text was updated successfully, but these errors were encountered: