Flink读写系列之-读Kafka并写入Kafka
·
读写Kafka比较简单,官方提供了connector,也提供了例子可以参看,官网例子的GitHub地址:
下面只做简单的说明:
val myConsumer = new FlinkKafkaConsumer010[String](KAFKA_CONSUMER_TOPIC, new SimpleStringSchema(), KAFKA_PROP)//参数分别是:指定取数据的topic,序列化器,kafka参数
env.addSource[String](myConsumer)//读入kafka数据产生dataStream,可针对dataStream进行各种逻辑处理,比如map,filter等等。
//处理结果写入kafka
dataStream.addSink(new FlinkKafkaProducer010[String](KAFKA_PRODUCER_TOPIC,new SimpleStringSchema(),KAFKA_PROP))//参数分别是:写入topic,序列化器,kafka配置惨
//kafka配置参数
lazy val KAFKA_PROP: Properties = new Properties() {
setProperty("bootstrap.servers", KAFKA_BROKER)//broker地址
setProperty("zookeeper.connect", KAFKA_ZOOKEEPER_HOST)//zookeeper配置
setProperty("group.id", KAFKA_GROUP_ID)//组id
}
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)