Base de estudos em stream de eventos / mensageira, onde a proposta inicial foi realizar uma introdução a produção e consumo de mensagens utilizando Node e Kafka, convertendo uma carga entre 500 a 1000 solicitações do mesmo serviço em mensagens enfileiradas a serem consumidas no "tempo do servidor"
- Clone o repositório;
- Instale as dependências com
yarn
ounpm install
; - Construa o broker Apache Kafka e MongoDB com
docker-compose up
localhost:9000
- consumer apilocalhost:3333
- producer apilocalhost:9092
- container Broker Kafkalocalhost:2181
- container Zookeeperlocalhost:27017
- container MongoDB
GET http://localhost:9000/users
{
"count": 1,
"users": [
{
"_id": "6265c461b8a8aab3196ff9c1",
"email": "[email protected]",
"name": "Erna",
"createdAt": "2022-04-24T21:42:57.889Z",
"updatedAt": "2022-04-24T21:42:57.889Z",
"__v": 0
}
]
}
DELETE http://localhost:9000/users
POST http://localhost:3333/
Nome | Tipo | Descrição |
---|---|---|
timer | Número | Tempo de espera entre cada produção em milissegundos |
data | Matriz | Matriz de usuários a serem cadastrados. Quando vazia, os usuários fakes são buscados do JSON GENERATOR. |
{
"timer": 500,
"data": []
}
Apache Kafka documentação oficial