di Tom Simonite
La portavoce di YouTube Jessica Gibby spiega che ai bambini sotto i tredici anni si raccomanda di utilizzare YouTube Kids, dove non sono presenti sottotitoli automatici. Per quanto riguarda la versione standard di YouTube, Gibby dice che la funzione migliora l’accessibilità. “Lavoriamo continuamente per migliorare i sottotitoli automatici e ridurre gli errori“, spiega. Alafair Hall, un portavoce di Pocket.watch, una dimora di produzione di contenuti di intrattenimento per bambini che pubblica i contenuti di Ryan’s World, scrive in una dichiarazione che la società è “in stretto e immediato contatto con le piattaforme partner come YouTube, che lavorano per aggiornare qualsiasi sottotitolo erroneo“. Non è stato possibile raggiungere il gestore del canale Rob the Robot per un commento.
Questi tipi di errore non sono esclusiva di YouTube o dei sottotitoli nei video. Un giornalista di Wired Us ha scoperto che la trascrizione di una telefonata elaborata dalla startup Trint ha reso Negar, un nome di donna di origine persiana, come una variante di insulto razzista facilmente intuibile, nonostante all’orecchio umano le due parole abbiano suoni piuttosto diversi. L’amministratore delegato di Trint, Jeffrey Kofman, sostiene che il servizio abbia un filtro per le volgarità che redige automaticamente “una lista molto ristretta di termini“. L’offesa comparsa nella trascrizione di Wired Us non faceva parte dell’elenco, spiega Kofman, ma sarà aggiunta.
Questi errori possono essere sorprendenti per gli esseri umani, che sono in grado di desumere il senso di un discorso in parte grazie al contesto più generale in cui è inserito. Gli algoritmi hanno migliorato la loro capacità di elaborare il linguaggio, ma non sono ancora dotati di una capacità di comprensione del tutto affidabile, cosa che ha causato problemi ad altre aziende che si affidano alle macchine per elaborare il testo. Una startup, per esempio, è stata costretta ad aggiornare il suo gioco d’avventura dopo che era emerso che a volte descriveva scenari sessuali che coinvolgevano minori.
Gli algoritmi di apprendimento automatico “imparano” un compito elaborando grandi quantità di dati usati per il loro addestramento, in questo caso file audio e le trascrizioni corrispondenti. Secondo KhudaBukhsh è probabile che al sistema di YouTube capiti di inserire termini inappropriati perché i suoi dati per l’addestramento includevano principalmente conversazioni di adulti. Quando i ricercatori hanno controllato manualmente alcuni esempi di parole inappropriate presenti nei sottotitoli, si sono accorti che spesso apparivano in corrispondenza di discorsi pronunciati da bambini o persone che non sembravano essere di madrelingua inglese. Studi precedenti hanno scoperto che i servizi di trascrizione di Google e di altre grandi aziende tecnologiche commettono più errori nel caso di parlanti non bianchi e meno in presenza dell’inglese americano standard.
Source link
www.wired.it
2022-02-25 18:00:00