China Propõe Regras para Supervisão de Inteligência Artificial com Aspectos Emocionais
O órgão regulador cibernético da China divulgou, no último sábado (26), um conjunto de propostas de regras para aumentar a supervisão de serviços de inteligência artificial (IA) que buscam simular personalidades humanas. Esse movimento visa garantir a ética e a segurança no uso da tecnologia, em um contexto de rápida expansão da IA voltada ao consumidor.
Regras Visam Interações Emocionais
As novas diretrizes se aplicam a produtos e serviços de IA que utilizam interações emocionais por meio de texto, imagens, áudio e vídeo. O governo busca regular ferramentas que imitam características humanas, promovendo interações que engajem os usuários em um nível emocional.
Responsabilidades dos Provedores
A proposta estabelece que os provedores de serviços devem alertar os usuários sobre o risco de uso excessivo da IA. É previsto que intervenções sejam feitas quando os usuários apresentarem sinais de dependência. Os fornecedores também terão a responsabilidade de garantir a segurança durante todo o ciclo de vida dos produtos, implementando revisões de algoritmos e medidas de proteção de dados pessoais.
Avaliação Emocional dos Usuários
Outro ponto crucial das diretrizes é a identificação dos estados emocionais dos usuários. Os provedores deverão avaliar as emoções dos usuários e monitorar o nível de dependência em relação ao serviço. Caso usuários demonstrem comportamentos de dependência ou emoções extremas, ações corretivas deverão ser implementadas para preservar o bem-estar psicológico.
Limites para Conteúdos e Condutas
As propostas também definem limites claros para o tipo de conteúdo gerado pelas IAs. Os serviços não poderão criar material que comprometa a segurança nacional, espalhe desinformação ou promova violência e obscenidade. Essas medidas visam não apenas proteger os usuários, mas também garantir um ambiente digital mais seguro.
Com esse novo conjunto de regras, a China busca uma abordagem rigorosa à supervisão da inteligência artificial, refletindo a crescente preocupação com os riscos associados ao uso dessa tecnologia em interações pessoais.
Com informações de: G1
