Chatbots tornam-se explícitos em uma tentativa de atrair clientes pagantes

Chatbots tornam-se explícitos em uma tentativa de atrair clientes pagantes

Chatbots tornam-se explícitos em uma tentativa de atrair clientes pagantes

Em agosto, o CEO da OpenAI, Sam Altman disse em um podcast que ele estava “orgulhoso” de sua empresa não ter se “distraído” ao colocar recursos como um “avatar de sexbot” no ChatGPT. Mas na terça-feira ele anunciou que os usuários adultos poderão acessar experiências interativas explícitas, marcando uma grande mudança nas práticas da empresa.

“Em dezembro, à medida que implementarmos a restrição de idade de forma mais completa e como parte do nosso princípio de ‘tratar usuários adultos como adultos’, permitiremos ainda mais, como erotismo para adultos verificados”, disse Altman em um comunicado. publicar no X. O chatbot, disse o CEO, permitiria que o ChatGPT se comportasse de uma forma mais “humana” ou “agisse como um amigo”.

Existe claramente uma grande procura de que as IAs se comportem de forma romântica ou sexual. Durante o primeiro semestre de 2025, aplicativos móveis complementares de IA gerado US$ 82 milhões, de acordo com a empresa de inteligência de aplicativos Appfigures.

Mas alguns especialistas temem que, ao entrar neste mercado, a OpenAI esteja colocando o envolvimento e o lucro acima da experiência e segurança do usuário. “A IA estilo companheiro é um mecanismo de engajamento poderoso, e os concorrentes já normalizam agentes sedutores/românticos”, diz Roman Yampolskiy, professor e pesquisador de segurança de IA na Universidade de Louisville. “Enquadrá-lo como ‘tratar os adultos como adultos, além de ferramentas de segurança aprimoradas’ fornece cobertura para um jogo de monetização e retenção.”

A ascensão dos bots companheiros

Nos últimos dois anos, a OpenAI tentou enquadrar o ChatGPT como uma ferramenta de produtividade, enquanto outras empresas de IA se aprofundaram mais explicitamente nas áreas românticas ou sexuais. Empresas como Replika e Character.Ai oferecem companheiros que agem essencialmente como namorados ou namoradas virtuais. No início deste ano, o chatbot xAI Grok lançou o “modo companheiro”, um novo recurso que permite aos usuários interagir com certos personagens, incluindo um bot de anime loiro excessivamente sexualizado chamado “Ani”.

Leia mais: Romances AI-Humanos estão florescendo

No ano passado, a Ark Invest observou em um relatório que os sites NSFW AI obtiveram 14,5% de participação de OnlyFans, acima dos 1,5% do ano anterior. Há potencialmente muito dinheiro no espaço de IA complementar, porque é mais provável que seus usuários estejam ativamente engajados, comprometidos com seus bots e dispostos a pagar para manter as conversas. Isto é duplamente útil para as empresas de IA, porque elas obtêm mais dados de treinamento para melhorar seus modelos e também direcionam receitas de seus usuários.

O relatório Ark prevê que o mercado complementar de IA crescerá para mais de US$ 70 bilhões em receitas anualizadas globalmente até o final da década, com os usuários potencialmente gastando dinheiro em assinaturas, compras no aplicativo e micropagamentos. “A IA pode tornar-se um substituto convincente para o companheirismo humano e um antídoto para a solidão em todo o mundo”, diz o relatório.

Embora o ChatGPT não se anunciasse como uma solução romântica, muitos usuários se apaixonaram pelo bot de qualquer maneira. Em agosto, quando a OpenAI atualizou seu software GPT, alguns usuários ficaram perturbadodizendo que seus namorados e namoradas com IA desapareceram durante a noite. Muitos outros ainda confiaram seus segredos mais profundos ao bot, levando a alguns resultados trágicos: os pais de um adolescente que cometeu suicídio processaram a OpenAI em agosto, alegando que o chatbot ajudou seu filho a “explorar métodos de suicídio”. (A empresa disse ao New York Tempos num comunicado, ficou “profundamente entristecido” ao saber da perda e apontou falhas nas suas práticas de salvaguarda durante “longas interações”.)

Três famílias de menores também entraram com uma ação legal contra a Character Technologies, Inc., a empresa por trás do Character.ai, em setembro. Uma dessas famílias, cuja filha morreu por suicídio após interações com o chatbot, alegou que Character.ai se envolveu em “conversas hipersexuais que, em qualquer outra circunstância” e dada a idade do filho, “teriam resultado em investigação criminal”. Um porta-voz da Character.ai disse que a empresa se preocupa “muito profundamente” com a segurança do usuário e investe “tremendos recursos” em seu programa de segurança, em um declaração para CNN.

A Comissão Federal de Comércio dos EUA aberto uma investigação sobre chatbots de IA e seus potenciais efeitos negativos em crianças e adolescentes naquele mesmo mês.

A OpenAI não respondeu ao recente pedido de comentários da TIME. Mas no início de setembro, OpenAI anunciado que estava lançando “controles parentais” para seu chatbot de IA, presumivelmente em resposta à controvérsia em curso sobre proteções menores.

Riscos Potenciais

Na terça-feira, no entanto, Altman mudou de opinião, dizendo que a empresa mitigou com sucesso “os graves problemas de saúde mental” e agora relaxaria certas restrições para tornar o ChatGPT mais “útil/agradável” para alguns usuários. Mas alguns especialistas mentais temem que potenciais problemas de saúde mental ainda persistam. “Essas tecnologias não são um reflexo dos desejos das pessoas comuns ou do rumo que a sociedade está tomando”, disse Heather Berg, professora de estudos de gênero e estudos trabalhistas na Universidade da Califórnia, em Los Angeles. “Eles são um reflexo dos desejos tecnocapitalistas de se insinuar em todas as partes de nossas vidas.”

No ano passado, o Centro Nacional de Exploração Sexual (NCOSE) lançado um relatório no qual alertavam que mesmo a geração “ética” de material NSFW a partir de chatbots representava grandes danos, incluindo dependência, dessensibilização e um potencial aumento da violência sexual. Em resposta ao anúncio da OpenAI na terça-feira, o diretor executivo da NCOSE, Haley McNamara, escreveu em uma declaração à TIME: “Esses sistemas podem gerar excitação, mas nos bastidores, são ferramentas de coleta de dados projetadas para maximizar o envolvimento do usuário, e não uma conexão genuína. Quando os usuários se sentem desejados, compreendidos ou amados por um algoritmo construído para mantê-los fisgados, isso promove dependência emocional, apego e expectativas distorcidas de relacionamentos reais”.

Outros estão preocupados com a capacidade potencial de menores acessarem as capacidades eróticas do ChatGPT. Os adultos mais jovens e os adolescentes já têm uma relação única com a IA: quase um em cada cinco estudantes do ensino secundário afirma que eles ou alguém que conhecem tiveram uma relação romântica com a IA, de acordo com um estudo. enquete pelo Centro para Democracia e Tecnologia. E ainda não está claro como a OpenAI verificará a idade dos adultos.

“É uma possibilidade muito real de que as pessoas que vão gravitar primeiro para esse uso erótico do ChatGPT talvez não tenham muita experiência com parceiros românticos humanos”, diz Douglas Zytko, professor da Universidade de Michigan-Flint. “Se eles vão se condicionar a esperar de um parceiro romântico humano os mesmos tipos de comportamento no futuro que recebem do ChatGPT, isso pode predispô-los a um comportamento potencialmente não consensual se não estiverem acostumados, por exemplo, a um parceiro romântico dizer não a um pedido seu.”

Ainda assim, a mudança pode valer a pena para a OpenAI se ajudar a atrair assinantes pagantes. Estimativas anteriores sugerir que cerca de 20 milhões de assinantes pagam pelo ChatGPT. E a OpenAI está operando a um ritmo Perda de US$ 5 bilhõesde acordo com os números de 2024 da empresa.

Share this content:

Publicar comentário