ChatGPT – A popularização de ferramentas de inteligência artificial como o ChatGPT está sendo acompanhada por órgãos de controle no Brasil. O Ministério Público Federal (MPF) emitiu uma recomendação formal à OpenAI, desenvolvedora do ChatGPT, com o objetivo de reforçar a proteção de dados pessoais.
O documento foca no fenômeno de “alucinação” de modelos de linguagem, comportamento em que a ferramenta gera informações falsas com aparência de veracidade. Segundo o MPF, é necessário que a OpenAI adote medidas explícitas para alertar usuários sobre esse risco, especialmente envolvendo dados pessoais.
LEIA: Supremo agenda julgamento que pode regular big techs no Brasil
O procurador da República Carlos Bruno Ferreira da Silva afirma que o comportamento imprevisível do modelo “representa uma ameaça direta à proteção de dados pessoais, um direito garantido pela Constituição Federal e regulamentado pela Lei Geral de Proteção de Dados (LGPD)”.
A recomendação ressalta que respostas contendo dados de indivíduos, mesmo que parcialmente corretos, podem violar princípios da LGPD como qualidade da informação (art. 6º, V), transparência (art. 6º, VI) e segurança (art. 6º, VII). A ausência de mecanismos de filtro prejudica o direito dos cidadãos à proteção de dados pessoais, criando um cenário propício para desinformações e exposições indevidas.
Embora a OpenAI afirme que se baseia no princípio do “legítimo interesse” (base legal da LGPD), o MPF discorda que isso seja suficiente para respaldar a criação de conteúdos potencialmente imprecisos sobre indivíduos reais. A falta de avisos claros levanta dúvidas sobre o nível de comprometimento da empresa com a proteção de dados de usuários brasileiros.
O MPF sugere que a empresa implemente mensagens automáticas destacadas em respostas com dados sensíveis, revelando que as informações podem ter sido geradas pelo sistema e não fazem parte de sua base factual. De acordo com o MPF, o alerta genérico atual “não atende aos critérios exigidos pela legislação nacional”.
A recomendação ocorre em meio ao debate sobre uso ético de IA. Ferramentas como ChatGPT são usadas em setores como atendimento ao cliente e educação, aumentando a exposição de dados pessoais e o potencial de impactos negativos.
O MPF destaca que o uso desses modelos precisa estar alinhado às normas regulatórias, incluindo a LGPD, considerando a “complexidade tecnológica” envolvida na geração de textos por IA.
A OpenAI terá 15 dias para responder ao MPF, informando quais medidas serão tomadas para atender à recomendação ou apresentar justificativas legais para a não adoção. Caso a resposta seja considerada insuficiente, o MPF poderá adotar “medidas judiciais ou administrativas adicionais”, incluindo ações civis públicas ou notificações à Autoridade Nacional de Proteção de Dados (ANPD).
A iniciativa do MPF pode servir de precedente para outras empresas que operam com inteligência artificial no país. O caso destaca a importância de discutir limites éticos e legais para sistemas automatizados.
A proposta do MPF tem como objetivo promover uma cultura de transparência no uso de tecnologias emergentes. A inclusão de alertas é considerada medida simples, mas essencial para mitigar danos de possíveis informações falsas, preservando a confiança dos usuários.
Leia a recomendação na íntegra (acesse aqui).
(Com informações do Ministério Público Federal)
(Foto: Reprodução/Freepik/frimufilms)