Intelligenza artificiale, perché non è la nuova bomba atomica
| Wired Italia

Intelligenza artificiale, perché non è la nuova bomba atomica | Wired Italia


Altman, a dirla tutta, concorda con Harris e Raskin sul fatto che l’IA potrebbe distruggere la civiltà. Ma sottolinea di avere intenzioni migliori di altre persone, e che cercherà di fare in modo che i nuovi strumenti integrino delle protezioni. Altman, inoltre, è convinto di non avere altra scelta se non quella di proseguire con lo sviluppo dell’Ai, dal momento che la tecnologia sarebbe comunque inarrestabile. Un mix sconcertante di fede e fatalismo.

Per la cronaca, condivido la posizione di Altman su quest’ultimo punto. Però credo anche che le protezioni messe in campo a oggi, come il filtraggio dell’incitamento all’odio o ai reati nelle risposte di ChatGpt, siano caratterizzate da una debolezza ridicola. Per aziende come OpenAI o MidJourney sarebbe piuttosto banale, per esempio, incorporare filigrane digitali difficili da rimuovere in tutte le immagini generate dai loro sistemi di intelligenza artificiale, per favorire l’individuazione di deepfake come le foto del Papa. Una coalizione chiamata Content Authenticity Initiative sta cercando di fare esattamente questo, seppur su scala limitata; il suo protocollo consente agli artisti di allegare volontariamente i metadati alle immagini generate dall’Ai. Non mi pare però che nessuna delle principali aziende di Ai generativa si sia unita a questi sforzi.

Paragone fuori fuoco

A prescindere dal giudizio positivo o negativo, credo che il parallelo tra l’Ai generativa e le armi nucleari sia più fuorviante che utile. Anche se potrebbero letteralmente spazzare via la maggior parte dell’umanità in pochi minuti, ci sono relativamente poche le persone in grado di mettere le mani sulle armi nucleari. Di contro, quasi tutti avremo la possibilità di utilizzare l’Ai, che però non sarà in grado di annichilire la maggior parte del genere umano in un colpo solo. Certo, forse si potrebbe chiedere a un modello come Gpt-4 (privo di sistemi di protezione) o ai suoi successori di “progettare un superbatterio che sia più contagioso del Covid-19 e che uccida il 20 % delle persone che infetta”. Ma l’umanità tuttavia non si è ancora estinta nonostante le formule per la creazione di tossine mortali e il codice genetico delle malattie virulente siano da anni online a disposizione di chiunque .

Ciò che rende spaventosa l’Ai, piuttosto, è che nessuno può prevedere la maggior parte delle applicazioni che gli utenti escogiteranno in futuro. Alcuni di questi usi potrebbero rappresentare l’equivalente di una bomba atomica per settori molto specifici, come i saggi universitari, che potrebbero diventare obsoleti. In altri casi, gli effetti dannosi della tecnologia saranno più lenti e difficili da prevedere (per esempio, mentre ChatGpt si è dimostrato uno strumento incredibilmente efficace per la scrittura di codice, c’è chi teme che il chabot renderà superflue le comunità in cui gli esseri umani condividono le conoscenze nel settore programmazione, distruggendo così il fondamento su cui si formeranno i futuri sviluppatori umani e l’intelligenza artificiale).

Ad ogni modo, l’analogia con il Progetto Manhattan mi sembra centrata per un aspetto: c’è un mondo prima dell’accesso di massa all’Ai generativa e uno dopo, e non sono la stessa cosa.

Questo articolo è comparso originariamente su Wired US.





Leggi tutto su www.wired.it
di Gideon Lichfield www.wired.it 2023-04-07 10:59:50 ,

Previous Starship di SpaceX sta per partire? | Wired Italia

Leave Your Comment