Kafka streams를 Spring boot기반으로 개발해보면서, 2가지 타입으로 시도해보았다. 1) Component로 선언하여 stream을 start해주는 방법 2) Autowired 어노테이션을 통해 StreamsBuilder을 주입받는 방법 가장 큰 차이는 1번에서는 stream을 직접 start해주었고, 2번은 그럴 필요가 없었다. 코드 부분을 보면 이렇다. 1. Component로 선언하여 stream을 start해주는 방법 @Component public class KafkaStreamsComponent { @Bean("kafkaStreamComponent") public void kafkaStream() throws Exception { Properties props = new Pro..
간단한 테스트들을 위해 NodePort로 설정하여 Kafka를 설치해보았다. 참고: https://github.com/bitnami/charts/tree/master/bitnami/kafka 1. helm repo 추가 $ helm repo add bitnami https://charts.bitnami.com/bitnami 2. volume 셋팅 a) 디렉터리 생성 $ mkdir zoo && chmod 747 zoo $ mkdir data && chmod 747 data b) volume yaml파일 작성 apiVersion: v1 kind: PersistentVolume metadata: name: kafka-data labels: app: kafka-data spec: storageClassName:..
test topic 데이터를 consume하고, " "(공백)단위로 구분하여 test2 topic으로 produce하는 것을 목표로 하였다. 방법은 크게 두가지로 시도하였다. 1) Component로 선언하여 stream을 start해주는 방법 2) Autowired 어노테이션을 통해 StreamsBuilder을 주입받는 방법 → 참고: https://www.baeldung.com/spring-boot-kafka-streams (Topology: https://kafka.apache.org/0102/documentation/streams/core-concepts#streams_topology) 핵심은 Topology를 만드는 것인데, 1번의 경우 Topology를 만들고, stream을 start한 반면..
- Total
- Today
- Yesterday