A OpenAI anunciou a suspensão indefinida do lançamento de um chatbot capaz de gerar conteúdo sexual explícito, medida tomada em meio a debates sobre os impactos sociais e a imagem da empresa. A decisão foi divulgada em 26 de março, refletindo um posicionamento cauteloso diante dos desafios regulatórios e éticos que envolvem esse tipo de tecnologia.
O projeto, conhecido internamente como “modo Citron”, enfrentou resistência tanto de colaboradores quanto de investidores. Funcionários questionaram a compatibilidade do produto com a missão da OpenAI, que visa assegurar que suas inovações tragam benefícios reais para a sociedade. Paralelamente, investidores manifestaram receios sobre possíveis danos à reputação da companhia, avaliando que os riscos superariam os potenciais ganhos comerciais.
Em 2023, a OpenAI já havia flexibilizado algumas restrições do ChatGPT para permitir o acesso a conteúdo erótico por usuários adultos verificados, buscando tratar esses usuários com maior autonomia. No entanto, a decisão atual de suspender o chatbot explícito ocorre em um contexto mais amplo de cautela, especialmente após a empresa anunciar o encerramento do aplicativo Sora, voltado para criação de vídeos, que vinha sendo criticado pela disseminação de conteúdo gerado por inteligência artificial de baixa qualidade.
Contexto regulatório e desafios do setor
Essas medidas da OpenAI ocorrem em um momento delicado para o setor de tecnologia, que enfrenta crescente pressão regulatória e judicial, principalmente em relação ao impacto de suas plataformas sobre menores de idade. Empresas como Meta têm sido alvo de processos e ajustes em suas políticas para mitigar riscos associados ao uso inadequado de suas ferramentas.
Além disso, outras organizações de inteligência artificial também passaram por controvérsias recentes. No ano passado, a empresa de Elon Musk teve seu chatbot Grok criticado internacionalmente após ser utilizado para gerar imagens falsas de teor sexual envolvendo pessoas reais, incluindo menores, o que reforça a necessidade de cautela na implementação de tecnologias com potencial para abuso.
