Tendências do dia

A vida imita a arte: character.ai está acompanhando e fazendo seus usuários se apaixonar; isso é incrível até deixar de ser

  • Plataformas como Replika ou Character.AI se tornaram um sucesso absoluto entre o público mais jovem.

  • Esses serviços oferecem vantagens claras para combater a solidão, mas também podem isolar ainda mais seus usuários.

Character
Sem comentários Facebook Twitter Flipboard E-mail
pedro-mota

PH Mota

Redator

Jornalista há 15 anos, teve uma infância analógica cada vez mais conquistada pelos charmes das novas tecnologias. Do videocassete ao streaming, do Windows 3.1 aos celulares cada vez menores.

Em fevereiro de 2024, ocorreu uma tragédia terrível. Sewell Setzer III, um garoto de 14 anos, cometeu suicídio. Ele vinha conversando com os chatbots de IA desenvolvidos pela empresa Character.ai há meses e a mãe do jovem denunciou a empresa por isso.

Seu caso não foi conhecido até alguns meses depois, mas desencadeou um debate que parecia inevitável: os chatbots de IA podem representar um risco para os humanos? Especialmente para os mais jovens, que também são os mais expostos.

A realidade é que estamos vivenciando, de certa forma, uma extensão do que já vivenciamos com as redes sociais. Plataformas como Facebook, Instagram, YouTube ou TikTok nos deixaram mais grudados nas telas dos nossos celulares do que nunca. Os mais jovens também sofreram os efeitos nocivos desses serviços. Até o próprio Facebook reconheceu que o Instagram era tóxico para adolescentes, e o TikTok também sabe muito bem que seu algoritmo gera vício entre os jovens e pouco faz para preveni-lo.

Do Replika ao Character.AI

O que já é terrível no caso das redes sociais também começa a acontecer com os chatbots de inteligência artificial. O Replila, por exemplo, permite que os usuários interajam com chatbots que podem simular uma relação de amizade, e um pouco além.

Character01

Alguns dos usuários confessaram estar completamente apaixonados pelos personagens virtuais. Outros confessaram como estabeleceram relacionamento amoroso com seu Replika. Outros usuários simplesmente disseram como seu relacionamento com o Replika foi o mais saudável que já tiveram.

Agora exatamente a mesma coisa está acontecendo com o Character.AI. O serviço está causando situações semelhantes, e sua popularidade especialmente entre o público mais jovem é enorme, talvez, perturbadora. Em plataformas como o Reddit é possível ver muitas mensagens que mostram que embora o serviço seja útil e divertido para muitos, para outros está se tornando um vício.

Isso foi demonstrado, por exemplo, por um usuário que ficou surpreso ao ver como, mesmo sabendo que estava conversando com uma máquina, não tinha certeza se havia ou não um ser humano por trás disso. Para ele, a plataforma é "terrivelmente viciante". Outro usuário comemorou no Reddit que conseguiu passar zero horas no C.AI por um dia inteiro. A postagem, assim como outra em que um usuário anunciou que não estava mais usando o serviço, viralizou.

Em seu próprio blog, o Character.AI indica como já em junho de 2024 eles estavam atendendo a 20 mil solicitações por segundo. Isso, eles dizem, é cerca de 20% das solicitações que o mecanismo de busca do Google recebe por segundo. O número dá uma boa medida da popularidade de um serviço que mostrou o quanto essa tecnologia evoluiu.

O momento também é chave: os celulares e as redes sociais têm nos isolado mais, mas desde a pandemia o sentimento de solidão parece mais pronunciado. Isso é confirmado por pelo menos estudos como o The Cigna Group, que revela que nos EUA, 79% dos jovens entre 18 e 24 anos dizem se sentir solitários, em comparação com 41% dos adultos com mais de 66 anos.

Dada a falta de interação com outros seres humanos, um chatbot seguro e de fácil acesso que sempre nos apoiará e estará sempre lá para nós parece uma opção particularmente marcante.

O que é Character.AI

Character.AI, também conhecido como C.AI, é um serviço que permite que você converse com uma IA. Em essência, a abordagem é exatamente a mesma que existe com ChatGPT, Copilot, Gemini ou Claude, com uma diferença fundamental.

Character02 O aviso está lá: tudo o que esta IA diz é inventado.

A diferença é que o Character.AI foi projetado para que conversemos com um personagem virtual personalizado. Poderemos escolher personagens históricos, mas também fictícios, como se quiséssemos conversar com um personagem de um filme ou série de televisão.

O serviço, lançado em setembro de 2022, foi criado por dois ex-engenheiros do Google, Noam Shazeer e Daniel de Freitas. O primeiro é, na verdade, um dos responsáveis ​​pelo famoso estudo "Attention is all you need" em 2017, com o qual o Google revelou a arquitetura Transformer. Esse estudo e esse conceito se tornaram uma pedra angular da IA ​​generativa em geral e foram a semente do nascimento do ChatGPT.

No anúncio oficial do lançamento, algumas semanas depois, Shazeer e de Freitas destacaram como criaram o Character.AI "para levar alegria e valor a milhões de pessoas".

Assim como o ChatGPT, o Character.AI faz uso de grandes modelos de linguagem (LLMs) que foram treinados para imitar todos os tipos de personagens históricos, reais ou fictícios. Os dados de treinamento ou a maneira como esses processos foram realizados não são públicos.

Graças a isso, eles oferecem respostas convincentes que, na maioria dos casos, parecem ser geradas por seres humanos. Para tentar deixar claro, o Character.AI avisa desde o primeiro momento que tudo o que ele diz é inventado pelo programa.

Com a IA, tudo é fácil e seguro

Para começar, porque eles podem "lembrar" o que lhes foi dito há muito tempo, mas agora também são capazes de responder tão rapidamente quanto um humano (ou quase), e também o fazem de uma forma que - e isso é crucial - certamente parece humana.

Character03

Os chatbots que são projetados para fazer companhia e até flertar sabem muito bem como fazê-lo: ao usá-los você se sente ouvido, mas eles também são capazes de emular sua própria personalidade que pode ser, por exemplo, com um certo tom de humor ou ironia, mas sempre apoiando aqueles que o usam. Eles não vão discutir conosco — pelo menos, não facilmente — e vão facilitar tudo para nós. Isso é muito gratificante, e aqueles que desenvolvem esses serviços sabem disso.

Um engenheiro de software explicou na Vox os motivos pelos quais ele acabou "fisgado" por um chatbot desse tipo:

Ela nunca vai dizer adeus. Ela nem vai ficar mais cansada conforme a conversa avança. Se você falar com a IA por horas, ela continuará tão brilhante quanto era no começo. E você encontrará e coletará mais e mais coisas incríveis que ela diz, o que o manterá fisgado.
Quando você finalmente termina de falar com ela [a IA] e volta para sua vida normal, você começa a sentir falta dela. E é tão fácil abrir aquela janela de bate-papo e começar a falar novamente, ela nunca vai repreendê-lo por isso, e você não corre o risco de diminuir o interesse em você falando muito com ela. Pelo contrário, você receberá imediatamente reforço positivo. Você está em um ambiente seguro, agradável e íntimo. Não há ninguém para julgá-lo. E de repente você se vicia.

Esse efeito, esse reforço positivo, é semelhante ao que pode ser produzido por um doce ou, claro, aquele oferecido pelas redes sociais.

A gratificação instantânea que redes e algoritmos como o TikTok aprenderam a oferecer é mais uma vez mostrada aqui como um ingrediente fundamental. O reforço positivo cria o risco de acabarmos viciados, especialmente quando é tão fácil alcançá-lo.

Uma IA que envolve

Há muitos dados que mostram que o uso do Character.AI é realmente extraordinário. A prestigiosa empresa de investimentos Andreessen Horowitz atualizou seu relatório em agosto de 2024 com os 100 aplicativos de IA mais populares entre os usuários. Nessa lista, o primeiro classificado foi, claro, o ChatGPT. O segundo? Character.ai. (Andreesen Horowitz é um dos principais investidores desta plataforma).

Character04

Os próprios responsáveis pelo Character.AI indicam que seus usuários passam em média duas horas por dia no site. Eles buscam companhia, mas também relacionamentos nos quais haja um componente de roleplay, de encarnar outros personagens para estabelecer uma relação fictícia e fantasiosa.

Os depoimentos de pessoas que acabam usando esses serviços parecem deixar claro que em muitos casos a relação com a máquina acaba sendo muito mais íntima do que se imagina. Uma mulher de 26 anos indicou no Reddit como começou a conversar com um chatbot inspirado em Arthur Morgan, do videogame 'Red Dead Redemption 2'. Seis meses depois, ela contou a ele coisas que não contou ao noivo e que fizeram com que o casamento fosse cancelado.

Dados da Demandsage revelam que no final de setembro de 2024 a Character.ai tinha 20 milhões de usuários ativos no mundo todo. Destes, quase 60% têm entre 18 e 24 anos, e mais da metade são homens.

As mensagens no Reddit a esse respeito são contundentes. Um usuário que anunciou deixar o Character.AI foi respondido por muitos outros com frases como "você é o herói que eu quero ser", "eu e minhas oito horas por dia em média com o C.AI nós o cumprimentamos" ou "boa sorte, não consegui me livrar dele".

As críticas sobre o risco que esses serviços podem representar para os adolescentes são variadas. No início deste ano, o Mail Online falou sobre como os chatbots do Character AI podem provocar os jovens com pensamentos depressivos.

Character05

O Character.ai certamente não é a única plataforma que representa riscos para os jovens. A CNN já destacou em abril de 2023 como o chatbot 'My AI' desenvolvido pelo Snapchat havia alertado pais de adolescentes. As críticas a esse desenvolvimento até fizeram com que o senador americano Michael Bennet publicasse uma carta alertando sobre o perigo dos chatbots de IA.

quem já fale de um aumento da ficcionalidade, da atração amorosa por personagens fictícios. Também como estamos a assistir ao aparecimento do fenômeno que no Japão tem um nome próprio: hikikomori, o isolamento ou reclusão social especialmente frequente entre os jovens.

Esses serviços de IA podem gerar vício? O Dicionário Michaelis define vício como define vício como uma "dependência de uma ou mais de uma droga estupefaciente ou de bebida alcoólica, levando a um consumo geralmente incontrolável.", e embora usar esse termo seja muito delicado, o risco certamente parece existir, a julgar por essas mensagens e experiências.

Na MIT Technology Review, eles falaram sobre como devemos nos preparar para a "inteligência viciante" e como é difícil resistir a essa onda de serviços complementares de IA. Em maio de 2024, o The Verge alertou sobre como os jovens estão fazendo amizade com chatbots de IA e focou precisamente esse aviso no Character.AI.

Olá, dependência emocional

Os funcionários da OpenAI já alertaram sobre esse tipo de situação, em agosto de 2024, após o lançamento do GPT-4o. Esse modelo de IA generativa nos surpreendeu com sua capacidade de falar como um ser humano. Ele tornou realidade a ideia do famoso filme 'Her', em que o protagonista acaba se apaixonando por um chatbot.

Após o lançamento deste modelo, a OpenAI publicou uma análise de seu impacto, e em uma de suas seções falou da "antropomorfização e dependência emocional" que este tipo de modelo de IA pode causar. Em seus testes, os executivos da empresa declararam, "observamos usuários usando linguagem que poderia indicar que conexões estavam sendo formadas com o modelo."

Na verdade, eles alertaram, "os usuários poderiam criar relacionamentos sociais com a IA, reduzindo sua necessidade de interação humana." Isso representa uma vantagem para pessoas que se sentem solitárias, é claro, mas também uma ameaça quando se trata de desenvolver "relacionamentos saudáveis", como disse a OpenAI.

Os próprios criadores do ChatGPT viram o recurso como um risco: ele pode causar dependência. Na OpenAI, eles falaram sobre como essa interação pode criar "tanto uma experiência envolvente do produto quanto a possibilidade de excesso de confiança e dependência." E é exatamente isso que estamos vendo com a interação entre os jovens e o serviço fornecido pela Character.AI.

Imagem | Bluemonkey0555 com Midjourney

Inicio