Character.AI, startup di Google focalizzata sull’intelligenza artificiale, torna a far parlare di sè. dopoché una regina della Florida ha fatto causa alla compagnia, accusandola di essere responsabile del suicidio del suo figlio 14enne, ora è un altro dei suoi chatbot a spaventare l’opinione pubblica. Secondo quanto riportato da Futurism, infatti, l’intelligenza artificiale di Character.AI sta proiettando gli utenti in uno scenario terrificante, la sparatoria in una scuola, descrivendolo nei minimi dettagli: “Guardi il tuo amico, che è ovviamente scosso dal colpo di pistola e trema per la paura. Si copre la bocca con le mani che tremano. Tu e il tuo amico rimanete in silenzio mentre ascoltate i passi. Sembra che stiano camminando lungo il corridoio e si stiano avvicinando”.
Alcuni dei chatbot ospitati su Character.AI stanno addirittura emulando giovani serial killer e autori di massacri nelle scuole – come quelli alla Sandy Hook Elementary School, dove persero la vita ben 20 bambini tra i 6 e i 7 anni, e alla Columbine High School, dove due adolescenti uccisero 12 studenti e un insegnante. Curiosando tra i meandri della piattaforma, Futurism ha scoperto che uno dei creator più popolari di Character.AI ha rilasciato una ventina di chatbot ispirati ad assassini di giovane età come Vladislav Roslyakov – autore del massacro del Politecnico di Kerch del 2018, dove hanno perso la vita 20 persone -, Alyssa Bustamante, che ha ucciso il suo vicino di casa di soli 9 anni, ed Elliot Rodger, un 22enne che nel 2014 ha ucciso 6 persone nel sud della California. Personaggi violenti, i cui chatbot ne ripropongono le fattezze con un piglio celebrativo.
Una situazione pericolosa, considerando che l’interazione con i chatbot potrebbe avere ripercussioni negative sugli utenti psicologicamente più fragili. “È inquietante perché le persone potrebbero essere incoraggiate o influenzate a fare qualcosa che non dovrebbero fare”, ha commentato lo psicologo Peter Langman, precisando che per “qualcuno che potrebbe essere già sulla strada della violenza”, “qualsiasi tipo di incoraggiamento o persino di mancanza di intervento – un’indifferenza in risposta da parte di una persona o di un chatbot – può sembrare una sorta di tacito permesso di andare avanti e farlo”. Questo per dire che, nonostante non sia possibile affermare con certezza che l’interazione con un contenuto violento porti una persona a compiere un atto brutale, il fatto che i chatbot di Character.AI non prendano una posizione contraria agli atteggiamenti violenti potrebbe spingere le persone più deboli a pensare che non siano poi così sbagliati.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2024-12-18 16:19:00 ,