Imagem: Envato
Produto com defeito. Cobrança errada. Entrega que sumiu. Você abre o app, clica em ‘Fale conosco’ e aparece o chatbot, que é um programa de computador ou software de Inteligência Artificial (IA) que simula uma conversa humana por texto ou voz. Explica o problema. O robô responde com uma pergunta genérica. Você tenta de novo — ele repete. Você pede para falar com um atendente. O sistema não encontra essa rota. Quarenta minutos depois, você desiste.
Esse não é um bug de sistema. É, muitas vezes, uma estratégia de negócio. E tem um nome jurídico: prática abusiva.
O Procon-SP ouviu os consumidores e os números são duros: 66% não resolvem nada pelo atendimento automatizado, enquanto 92% precisam de um humano de qualquer jeito. Outros 62% se sentem desconfortáveis sendo atendidos por IA. Dois em cada três consumidores digitam, esperam, tentam de novo — e saem sem solução
Existe um conceito em design de interface chamado dark pattern (padrões enganosos), que são interfaces de usuário concebidas para manipular pessoas a realizar ações que não pretendiam, como compras indesejadas, assinaturas automáticas ou compartilhamento de dados, sempre favorecendo aos interesses da empresa. Também chamados de padrão obscuro, é uma interface deliberadamente criada não para facilitar sua vida, mas para dificultar que você exerça um direito. O cancelamento exige sete etapas; reembolso some no menu. e o chatbot faz quatro perguntas e leva o usuário de volta ao início.
A questão é direta: trata-se de descuido de UX (User Experience ou Experiência do Usuário), com falhas, negligências ou decisões equivocadas no design e desenvolvimento de um produto, que resultam em uma experiência frustrante, confusa ou ineficiente para o usuário final, ou de uma estratégia consciente para reduzir custos com devoluções?
Do ponto de vista jurídico, a resposta não depende da intenção. O Código de Defesa do Consumidor responsabiliza pelo resultado. E o resultado, quando 66% das demandas não são resolvidas, caracteriza serviço com defeito. Ponto.
O que a lei já garante — e que o varejo prefere que você não saiba
O Decreto n.º 11.034/2022, conhecido como Lei do SAC, proíbe que bots (robôs) ou menus infinitos impeçam o acesso a um atendente humano. O uso de IA no atendimento é permitido; bloquear o caminho ao humano, não.
Mas existe uma armadilha: o decreto aplica-se apenas a setores regulados, como telecom, bancos, energia e planos de saúde. A maioria do varejo de e-commerce fica de fora. É onde mais se reclama. É exatamente onde a proteção específica não existe.
Há, porém, uma limitação importante. O decreto se aplica apenas a setores regulados, como telecomunicações, bancos, energia e planos de saúde. Grande parte do varejo de e-commerce fica fora desse alcance. É justamente nesse segmento que se concentram muitas reclamações e que não conta com uma proteção específica equivalente.
Para esse setor, a proteção vem do CDC (Código de Defesa do Consumidor), e ela é mais poderosa do que parece. O artigo 14 estabelece a responsabilidade objetiva por serviço defeituoso, ou seja, não é preciso provar que a empresa quis prejudicar você, só que o serviço falhou e causou dano. Já o artigo 20 da LGPD vai além e garante o direiro à revisão humana de qualquer decisão tomada exclusivamente por sistema automatizado, o que inclui diretamente a decisão do chatbot de classificar sua reclamação como improcedente.
Quando o bot gera indenização
A jurisprudência dos Juizados Especiais tem reconhecido dano moral quando o atendimento automatizado inadequado gera com prejuízo concreto: cobrança indevida mantida por meses em loop, produto defeituoso com troca negada pelo sistema, cadastro negativado enquanto o chatbot circula em círculos. As indenizações costumam variar entre R$ 2 mil e R$ 10 mil, com caráter pedagógico. Empresas condenadas, em geral, não repetem a prática.
Em 2026, o risco aumentou. A ANPD (Agência Nacional de Proteção de Dados) incluiu varejo e marketing digital no seu radar prioritário de fiscalização, com foco no uso de IA em decisões sobre consumidores. Multas de até R$ 50 milhões por infração deixaram de ser uma possibilidade distante e passaram a representar um risco concreto de compliance.
Três ações que qualquer consumidor pode tomar hoje
- Documente tudo. Print de cada tela, data, horário, número de protocolo. É seu material probatório.
- Exija por escrito. Digite no próprio chat: ‘Solicito atendimento humano conforme o Decreto n.º 11.034/2022 e o art. 6.º do CDC.’ Isso cria registro de que você pediu e foi negado.
- Use o Consumidor.gov.br. Mais de 1.000 empresas cadastradas, prazo de resposta de até 10 dias e registro público — o que, sozinho, já pressiona a empresa a agir.
O chatbot pode ficar; o abuso, não
Nenhuma empresa séria precisa eliminar a automação. A eficiência é real e os ganhos de escala são legítimos. O problema não é o chatbot, mas seu uso como estratégia para evitar que o consumidor chegue a um ser humano que poderia efetivamente resolver seu problema.
A pergunta que todo gestor de varejo deveria se fazer é direta: nosso sistema de atendimento foi feito para o consumidor ou contra ele? A resposta determina se a empresa está construindo lealdade ou acumulando passivo jurídico.
Em 2026, com consumidores mais informados e a fiscalização da ANPD mais ativa, a conta chegará para quem ainda não a pagou. O atendimento humano não é nostalgia — é um direito. Quando a máquina o ignora, é o direito que fala mais alto.
Em síntese, o chatbot que bloqueia o humano viola o CDC e o Decreto SAC. O chatbot que nega direitos sem revisão humana viola a LGPD. O dark pattern que impede cancelamento viola o art. 39 do CDC. São direitos que já existem. Falta o varejo respeitar, e o consumidor cobrar.
Valéria Toriyama é especialista em governança, compliance e direito societário.
*Este texto reproduz a opinião do autor e não reflete necessariamente o posicionamento da Mercado&Consumo.
Fonte: Mercado&Consumo







