Più di recente, hanno iniziato a prendere piede chatbot basati sull’Ai con risposte programmate e guidate dall’intelligenza artificiale, simili a Siri. Tra i più popolari c’è un chatbot progettato per comportarsi come un vero e proprio terapeuta: Woebot, che si basa sulla terapia cognitivo-comportamentale e ha visto un’impennata della domanda durante la pandemia.
Ma dal momento che queste app offrono risposte programmate e hanno un campo di applicazione più limitato, le sfaccettate conversazioni con ChatGpt possono rivelarsi più efficaci per chi cerca di risolvere problemi sociali complessi.
Margaret Mitchell, responsabile dell’etica della startup Hugging Face, che sviluppa modelli di intelligenza artificiale open source, suggerisce alle persone che si trovano ad affrontare problemi più complessi o gravi disagi emotivi di limitare l’uso dei chatbot: “Potrebbero portare a discussioni problematiche o stimolare pensieri negativi. Il fatto che non abbiamo il pieno controllo su ciò che questi sistemi possono dire è un grosso problema”. All’inizio di quest’anno, un uomo in Belgio si è suicidato dopo settimane di intense conversazioni con un bot basato su Gpt-J, un modello di intelligenza artificiale open source sviluppato dal gruppo no-profit EleutherAi.
I motori di ricerca e molti altri servizi online – tra cui Woebot – indirizzano gli utenti a numeri di emergenza e altre fonti di supporto nei casi in cui individuano il rischio di autolesionismo o comportamento violento. ChatGpt è addestrato a incoraggiare gli utenti a cercare sostegno umano se i loro messaggi appaiono come inquietanti, ma nei test effettuati da Wired US il chatbot non ha indicato linea telefonica di emergenza.
Andrea Vallone, product policy manager di OpenAi, afferma che l’azienda ha cercato di far sì che ChatGpt rispondesse in modo appropriato alle persone che potrebbero essere vulnerabili, ma che il sistema non è destinato a essere utilizzato in sostituzione di una terapia di salute mentale. “Incoraggiamo gli utenti a cercare sostegno presso i professionisti”, dichiara Vallone.
Mitchell ritiene che i recenti progressi nel campo delll’Ai generativa porteranno a chatbot ottimizzati per la terapia, più capaci e alimentati con set di dati provenienti da persone con esigenze specifiche, tra cui l’autismo. Per ora, ChatGpt può comunque svolgere un ruolo importante per aiutare persone di ogni tipo a esprimersi, soprattutto chi non sempre può contare su un’altra persona che capisca il suo stile di comunicazione.
Per chi ha bisogno di aiuto
I numeri da contattare se tu o una persona che conosci manifesta pensieri suicidi:
Telefono amico: 02 2327 2327
Samaritans: 06 77208977
Numero di emergenza Unico Europeo: 112
Altre informazioni utili sono consultabili sul sito del Ministero della difesa, a questa pagina.
Leggi tutto su www.wired.it
di Amanda Hoover, Samantha Spengler www.wired.it 2023-06-03 04:40:00 ,