Federação Nacional dos Trabalhadores em Tecnologia da Informação

ChatGPT deve alertar sobre 'insegurança de dados', cobra MPF

ChatGPT deve alertar sobre ‘insegurança de dados’, cobra MPF

Fenômeno conhecido como ‘alucinação’ dificulta distinção entre informações verdadeiras ou falsas

ChatGPT – A popularização de ferramentas de inteligência artificial como o ChatGPT está sendo acompanhada por órgãos de controle no Brasil. O Ministério Público Federal (MPF) emitiu uma recomendação formal à OpenAI, desenvolvedora do ChatGPT, com o objetivo de reforçar a proteção de dados pessoais.

O documento foca no fenômeno de “alucinação” de modelos de linguagem, comportamento em que a ferramenta gera informações falsas com aparência de veracidade. Segundo o MPF, é necessário que a OpenAI adote medidas explícitas para alertar usuários sobre esse risco, especialmente envolvendo dados pessoais.

LEIA: Supremo agenda julgamento que pode regular big techs no Brasil

O procurador da República Carlos Bruno Ferreira da Silva afirma que o comportamento imprevisível do modelo “representa uma ameaça direta à proteção de dados pessoais, um direito garantido pela Constituição Federal e regulamentado pela Lei Geral de Proteção de Dados (LGPD)”.

A recomendação ressalta que respostas contendo dados de indivíduos, mesmo que parcialmente corretos, podem violar princípios da LGPD como qualidade da informação (art. 6º, V), transparência (art. 6º, VI) e segurança (art. 6º, VII). A ausência de mecanismos de filtro prejudica o direito dos cidadãos à proteção de dados pessoais, criando um cenário propício para desinformações e exposições indevidas.

Embora a OpenAI afirme que se baseia no princípio do “legítimo interesse” (base legal da LGPD), o MPF discorda que isso seja suficiente para respaldar a criação de conteúdos potencialmente imprecisos sobre indivíduos reais. A falta de avisos claros levanta dúvidas sobre o nível de comprometimento da empresa com a proteção de dados de usuários brasileiros.

O MPF sugere que a empresa implemente mensagens automáticas destacadas em respostas com dados sensíveis, revelando que as informações podem ter sido geradas pelo sistema e não fazem parte de sua base factual. De acordo com o MPF, o alerta genérico atual “não atende aos critérios exigidos pela legislação nacional”.

A recomendação ocorre em meio ao debate sobre uso ético de IA. Ferramentas como ChatGPT são usadas em setores como atendimento ao cliente e educação, aumentando a exposição de dados pessoais e o potencial de impactos negativos.

O MPF destaca que o uso desses modelos precisa estar alinhado às normas regulatórias, incluindo a LGPD, considerando a “complexidade tecnológica” envolvida na geração de textos por IA.

A OpenAI terá 15 dias para responder ao MPF, informando quais medidas serão tomadas para atender à recomendação ou apresentar justificativas legais para a não adoção. Caso a resposta seja considerada insuficiente, o MPF poderá adotar “medidas judiciais ou administrativas adicionais”, incluindo ações civis públicas ou notificações à Autoridade Nacional de Proteção de Dados (ANPD).

A iniciativa do MPF pode servir de precedente para outras empresas que operam com inteligência artificial no país. O caso destaca a importância de discutir limites éticos e legais para sistemas automatizados.

A proposta do MPF tem como objetivo promover uma cultura de transparência no uso de tecnologias emergentes. A inclusão de alertas é considerada medida simples, mas essencial para mitigar danos de possíveis informações falsas, preservando a confiança dos usuários.

Leia a recomendação na íntegra (acesse aqui).

(Com informações do Ministério Público Federal)
(Foto: Reprodução/Freepik/frimufilms)

Compartilhe:

Outras publicações