Recentemente, Character.AI, uma plataforma de chat de IA apoiada pelo Google, sofreu um grave mau funcionamento, causando preocupação generalizada entre os usuários. A falha fez com que a saída do chatbot ficasse distorcida, misturada em vários idiomas e contivesse palavras confusas e até sexualmente sugestivas, como “dildo”. Muitos usuários compartilharam capturas de tela no Reddit mostrando bobagens geradas por IA e palavras aleatórias como “Ohio”, “matemática” e a palavra eslava “obec”. Essa falha não é a primeira vez que a Character.AI teve problemas. Em dezembro do ano passado, a plataforma sofreu uma grave falha de segurança, vazando registros de chat de usuários e informações pessoais. A interrupção levantou mais uma vez preocupações sobre a segurança de seus dados, especialmente porque muitos usuários mantêm conversas privadas na plataforma.
Um usuário disse que o que era uma conversa normal perdeu o sentido depois de horas, cheia de palavras aleatórias e uma mistura de vários idiomas. As capturas de tela mostram que o texto gerado pela IA gradualmente se transforma em um jargão sem sentido, com palavras-chave recorrentes como “cowboys”, “arquitetura”, “diferença” e “governador”. Embora Character.AI ainda não tenha respondido a esta falha, este incidente mais uma vez destaca os problemas de estabilidade e segurança de grandes modelos de linguagem, e também lembra aos desenvolvedores a necessidade de fortalecer a supervisão e manutenção de modelos de IA para garantir a segurança dos dados do usuário e a condução normal da conversa.
Destaques:
A falha fez com que as conversas do chatbot Character.AI se tornassem confusas, com os usuários relatando jargões misturados em vários idiomas.
Vários usuários compartilharam capturas de tela de conversas estranhas, mencionando frequentemente palavras como “vibrador”, causando confusão.
Character.AI já sofreu violações de segurança antes, e essa falha mais uma vez levantou preocupações sobre a segurança dos dados.
Essa falha do Character.AI não afetou apenas a experiência do usuário, mas também expôs os riscos e desafios potenciais de grandes modelos de linguagem. No futuro, plataformas semelhantes terão de reforçar as melhorias técnicas e as medidas de segurança para evitar que tais incidentes voltem a acontecer e manter a segurança dos dados dos utilizadores e uma boa experiência do utilizador. Esperamos que Character.AI possa resolver o problema o mais rápido possível e fornecer uma explicação detalhada da causa da falha.