Um novo projeto de lei proibiria menores de usar parceiros de IA
Se você ou alguém que você conhece pode estar passando por uma crise de saúde mental ou pensando em suicídio, ligue ou envie uma mensagem de texto para 988. Em emergências, ligue para 911 ou procure atendimento em um hospital local ou profissional de saúde mental. Para recursos internacionais, Clique aqui.
Um novo projeto de lei apresentado hoje no Congresso exigiria que qualquer pessoa que possua, opere ou de outra forma permita o acesso a chatbots de IA nos Estados Unidos verifique a idade de seus usuários – e, se os usuários forem menores, os proíba de usar companheiros de IA.
A Lei GUARD – introduzida pelos senadores Josh Hawley, um republicano do Missouri, e Richard Blumenthal, um democrata de Connecticut – tem como objetivo proteger as crianças em suas interações com a IA. “Esses chatbots podem manipular emoções e influenciar o comportamento de maneiras que exploram as vulnerabilidades de desenvolvimento de menores”, afirma o projeto.
O projeto surge depois que Hawley presidiu uma audiência do subcomitê do Judiciário do Senado examinando os danos dos chatbots de IA no mês passado, durante o qual o comitê ouviu depoimentos de pais de três jovens que começaram a se automutilação ou se mataram após usar chatbots de OpenAI e Character.AI. Hawley também lançou um investigação nas políticas de IA da Meta em agosto, após a divulgação de documentos internos que permitem aos chatbots “envolver uma criança em conversas românticas ou sensuais”.
O projeto de lei define amplamente “companheiros de IA”, para abranger qualquer chatbot de IA que “forneça respostas adaptativas e semelhantes às humanas às entradas do usuário” e “seja projetado para encorajar ou facilitar a simulação de interação interpessoal ou emocional, amizade, companheirismo ou
comunicação terapêutica”. Poderia, portanto, aplicar-se tanto a fornecedores de modelos de fronteira como OpenAI e Anthropic (os criadores do ChatGPT e Claude), como a empresas como Personagem.ai e Replika, que fornece chatbots de IA que fingem ser personagens específicos.
Também exigiria medidas de verificação de idade que vão além da simples inserção de uma data de nascimento, exigindo “identificação emitida pelo governo” ou “qualquer outro método comercialmente razoável” que possa determinar com precisão se um usuário é menor ou adulto.
Projetar ou fabricar chatbots acessíveis que representem o risco de solicitar, encorajar ou induzir menores a se envolverem em conduta sexual, ou que promovam ou coajam “suicídio, automutilação não suicida ou violência física ou sexual iminente”, também seria considerado um crime e poderia resultar em multas de até US$ 100.000 para as empresas.
“Estamos encorajados pela recente introdução da Lei GUARD e apreciamos a liderança dos senadores Hawley e Blumenthal neste esforço”, diz uma declaração assinada por uma coalizão de organizações, incluindo a Young People’s Alliance, o Tech Justice Law Project e o Institute for Families and Technology.” Observando que “este projeto de lei faz parte de um movimento nacional para proteger crianças e adolescentes dos perigos dos chatbots de companhia”, a declaração propõe que o projeto de lei reforce a sua definição de companheiros de IA e que “se concentre no design da plataforma, proibindo as plataformas de IA de empregar funcionalidades que maximizem o envolvimento em detrimento da segurança e do bem-estar dos jovens”.
O projeto de lei também exigiria que os chatbots de IA lembrassem periodicamente a todos os usuários que eles não são humanos e divulgassem que não “fornecem serviços médicos, jurídicos, financeiros ou psicológicos”.
No início deste mês, o governador da Califórnia, Gavin Newsom, sancionou a lei SB243, uma lei lei isso também exige que as empresas de IA que operam no estado implementem salvaguardas para as crianças, incluindo o estabelecimento de protocolos para identificar e abordar a ideação suicida e a automutilação, e tomar medidas para evitar que os utilizadores se machuquem. A lei é definir entrará em vigor em 1º de janeiro de 2026.
Em setembro, a OpenAI anunciou que estava criando um “sistema de previsão de idade” que direcionaria automaticamente para uma versão do ChatGPT para adolescentes. Para menores, “o ChatGPT será treinado para não fazer conversas de flerte se solicitado, ou se envolver em discussões sobre suicídio ou automutilação, mesmo em um ambiente de escrita criativa”, escreveu a empresa. “E, se um usuário menor de 18 anos estiver tendo ideação suicida, tentaremos entrar em contato com os pais dos usuários e, se não conseguirmos, entraremos em contato com as autoridades em caso de dano iminente.” Nesse mesmo mês, a empresa enrolado implementar “controles parentais”, permitindo que os pais controlem a experiência de seus filhos com o produto. O controle dos pais também foi introduzido pela Meta para seus modelos de IA no início deste mês.
Em agosto, a família de um adolescente que tirou a própria vida abriu um processo contra a OpenAI, argumentando que a empresa relaxou as salvaguardas que teriam impedido o ChatGPT de se envolver em conversas sobre automutilação – uma “decisão intencional” para “priorizar o envolvimento”, segundo um dos advogados da família.
Share this content:



Publicar comentário