Dovremmo smettere di addestrare l'IA avanzata?

2023-05-02

COMEintelligenza artificiale (AI)continua ad avanzare, alcune figure chiave del settore chiedono ora la sospensione dell'addestramento AI a causa del rischio che rappresenta per l'umanità. Il CEO di Twitter Elon Musk, il co-fondatore di Apple Steve Wozniak e alcuni ricercatori di DeepMind hanno firmato una lettera aperta del Future of Life Institute sollecitando la sospensione temporanea dello sviluppo dell'IA al di sopra di una certa capacità, avvertendo dei potenziali rischi posti da sistemi più avanzati . La lettera sostiene che negli ultimi mesi i laboratori di intelligenza artificiale sono stati bloccati in una corsa fuori controllo per sviluppare menti digitali più potenti, che nemmeno i loro creatori possono comprendere, prevedere o controllare.

Il Future of Life Institute è un'organizzazione senza scopo di lucro che mira a guidare le tecnologie di trasformazione lontano da rischi estremi e su larga scala e verso il beneficio della vita. Nella loro lettera aperta, l'organizzazione afferma che i sistemi di intelligenza artificiale con intelligenza umana-competitiva pongono rischi profondi per la società e l'umanità. La lettera avverte che tali sistemi potrebbero inondare i canali di informazione con disinformazione e sostituire i posti di lavoro con l'automazione. Le IA avanzate devono essere sviluppate con cura, ma negli ultimi mesi i laboratori si sono dati da fare per implementare sistemi sempre più potenti.

La banca d'investimento Goldman Sachs ha recentemente pubblicato un rapporto in cui si afferma che mentre l'intelligenza artificiale aumenterà probabilmente la produttività, milioni di posti di lavoro potrebbero essere automatizzati. Tuttavia, altri esperti sostengono che l'effetto dell'IA sul mercato del lavoro è difficile da prevedere. Nella lettera, il Future of Life Institute chiede: "Dovremmo sviluppare menti non umane che potrebbero alla fine essere più numerose, superate in astuzia, obsolete [sic] e sostituirci?" Il professor Stuart Russell dell'Università della California, Berkeley, e firmatario della lettera, ha dichiarato a BBC News che i sistemi di intelligenza artificiale pongono rischi significativi per la democrazia attraverso la disinformazione armata, per l'occupazione attraverso lo spostamento delle capacità umane e l'istruzione attraverso il plagio e la demotivazione.

La lettera avverte anche della potenziale futura minaccia al controllo umano sulla nostra civiltà da parte delle IA avanzate, ma il professore di informatica di Princeton Arvind Narayanan ha criticato la lettera per aver ignorato la versione del problema che sta già danneggiando le persone. Ha accusato la lettera di concentrarsi sul "rischio speculativo e futuristico". OpenAI, la società dietro ChatGPT, ha recentemente rilasciato GPT-4, una tecnologia all'avanguardia che ha impressionato gli osservatori con la sua capacità di eseguire attività come rispondere a domande sugli oggetti nelle immagini.OpenAInon ha commentato pubblicamente la lettera.

Dati i potenziali rischi associati al rapido avanzamento dell'IA, gli esperti chiedono maggiore cautela nello sviluppo dell'IA. In particolare, stanno esortando i laboratori a sospendere immediatamente per almeno sei mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4. Sebbene l'intelligenza artificiale abbia il potenziale per trasformare la società, gli esperti sostengono che tale trasformazione non dovrebbe avvenire a scapito della sicurezza e del controllo umano.

A lungo termine, prendere precauzioni ragionevoli è un piccolo prezzo da pagare per mitigare i rischi posti dalle IA avanzate. Tuttavia, gli esperti sostengono anche che i rischi sono difficili da prevedere e che dobbiamo procedere con cautela per evitare conseguenze indesiderate. Il Future of Life Institute esorta gli sviluppatori di IA a considerare le potenziali implicazioni future del loro lavoro e a garantire che le IA avanzate siano sviluppate con cura.

Nel complesso, l'invito a sospendere la formazione dell'IA al di sopra di una certa capacità riflette la crescente preoccupazione per i rischi posti dalle IA avanzate. Anche se c'è ancora molto che non sappiamo sulle implicazioni a lungo termine dell'IA, gli esperti invitano alla cautela per evitare potenziali danni alla società e all'umanità. Il rapido ritmo di sviluppo dell'IA negli ultimi anni ha lasciato molti esperti preoccupati che la tecnologia possa essere fuori controllo e che corriamo il rischio di creare sistemi che non possiamo comprendere o controllare. Pertanto, l'invito a sospendere lo sviluppo dell'IA è un passo necessario per garantire che possiamo sfruttare il potenziale dell'IA in modo sicuro e responsabile.


Ricevi l'ultimo prezzo? Ti risponderemo al più presto (entro 12 ore)