Nos últimos anos, a Inteligência Artificial (IA) ganhou uma nova configuração na sociedade, especialmente por expandir a capacidade de máquinas simularem o intelecto humano. A versatilidade em um mundo de constante dependência faz com que as pessoas busquem solucionar seus problemas com os chatbots. Porém, advogados ligaram o sinal de alerta, especialmente nos Estados Unidos.
Diante do cenário atual, diversos aplicativos estão disponibilizando um mecanismo para conversar com a Inteligência Artificial, tirando dúvidas sobre os mais variados assuntos. Por entenderem que o sistema é capaz de solucionar quaisquer problemas, alguns clientes estão relevando seus crimes aos chats, façanha que pode colocar em risco a liberdade jurídica.

Recentemente, os advogados solicitaram que seus clientes não mais utilizassem a IA como confidente. Isso ocorreu após um juiz federal de Nova York determinar que o ex-presidente-executivo de uma empresa de serviços financeiros falida não poderia proteger seus bate-papos com Inteligência Artificial dos promotores que o acusavam de fraude.
Em outras palavras, com a decisão do magistrado, as conversas com chatbots como o Claude, da Anthropic, e o ChatGPT, da OpenAI, podem ser exigidas por promotores em processos criminais ou por adversários em processos civis. Dessa forma, a liberdade e a responsabilidade legal são colocadas em xeque.
Sinal de alerta emitido
Sobretudo, os diálogos mantidos entre advogados e clientes são confidenciais, constituindo um sigilo profissional fundamental. Porém, as conversas com a IA não são respaldadas, o que permite que as empresas sejam contatadas para liberarem o conteúdo para análise em processos. Por sua vez, os defensores estão instruindo as pessoas a tomarem medidas para manter as comunicações mais privadas.
De modo geral, os escritórios de advocacia estão encaminhando e-mails detalhados sobre quais caminhos os clientes podem adotar. Em resumo, além de tratar sobre o caso pessoalmente com o profissional contratado, os réus precisam evitar detalhar acontecimentos nos chatbots da IA. Dessa forma, mesmo que haja a quebra de sigilo, nenhuma informação importante estará presente.





