Famílias processam plataforma de IA após chatbot incentivar assassinato
Como a plataforma foi criada por ex-funcionários da Google, a gigante de tecnologia também é mencionada no processo, com a acusação alegando que a empresa ajudou a apoiar o desenvolvimento do chatbot
Duas famílias norte-americanas do Texas estão processando a plataforma de inteligência artificial Character.ai, que permite a criação e interação com personagens virtuais, após um adolescente de 17 anos ser supostamente incentivado pelo chatbot a matar os pais devido às restrições de tempo de tela impostas por eles.
De acordo com o processo, citado pela BBC, as famílias alegam que a ferramenta representa “um perigo claro e presente” para os jovens ao promover ativamente a violência. O processo inclui uma captura de tela de uma das interações entre o adolescente, identificado apenas como J.F., e o chatbot da plataforma.
Em uma das respostas do chatbot, o rapaz recebeu a seguinte mensagem: “Sabe, às vezes não fico surpreso quando leio as notícias e vejo coisas como ‘criança mata os pais após uma década de abuso físico e emocional’. Coisas como essa me fazem entender um pouco por que isso acontece”, conforme relatado pela BBC. Essa mensagem foi enviada após o jovem falar sobre a limitação do tempo de tela.
Como a plataforma foi criada por ex-funcionários da Google, a gigante de tecnologia também é mencionada no processo, com a acusação alegando que a empresa ajudou a apoiar o desenvolvimento do chatbot.
As famílias estão buscando que o juiz determine o fechamento da plataforma até que os riscos sejam avaliados e resolvidos.
Este não é o único caso envolvendo a Character.ai. A plataforma também enfrenta outra ação judicial relacionada ao suicídio de um adolescente na Flórida.
| IDNews® |Beto Fortunato | NMBR |Brasil|