Non sorprende affatto che l'intelligenza artificiale, dati i recenti progressi nel settore, quest'anno abbia rappresentato il tema principale del Dublin Tech Summit.

L’aggiunta di sapore alle sessioni di intervento è stata la dichiarazione allarmante emessa dagli scienziati e dai CEO tecnologici dell’350IA che proclama l’IA una “minaccia a livello di estinzione”. Lo scopo di questa lettera era quello di sollecitare i responsabili politici ad approcciare la tecnologia come avrebbero fatto per la crisi climatica e le armi nucleari, innescando il dibattito tra i relatori dell’evento. La Dott.ssa Patricia Scanlon, prima ambasciatrice dell’IA in Irlanda e fondatrice di Soapbox Labs, ha rievocato questo sentimento precauzionale e ha avvertito che l’IA non è “un moda e non uno strumento di produttività. Le innovazioni dell'IA persisteranno: l'economia globale e ogni settore ne risentiranno".

ChatGPT ha portato l'IA alla coscienza del pubblico.

Tornando all’origine della nostra attuale ossessione per l’IA, Scanlon ha sottolineato che un anno fa il mondo non parlava nemmeno di IA generativa, ma ora abbiamo uno strumento: ChatGPT.

Scanlon ha spiegato che ChatGPT è nota come “IA stretta o debole” e la fase successiva di questa evoluzione è l’AGI (intelligenza generale artificiale) o “IA forte”. Prima di ChatGPT, si prevedeva che AGI emergesse tra 30 o 40 anni. Ora, Scanlon afferma che la società deve iniziare a prepararsi perché potrebbe diventare più veloce di quanto inizialmente pensato.

Il dott. Ben Goertzel, CEO e fondatore di SingularityNET, nel suo discorso, Large Language Models: What Comes Next?, ha dichiarato che è molto probabile che AGI compaia tra tre-sette anni. Di ChatGPT, Goertzel ha evidenziato molte delle carenze tecnologiche. “ChatGPT non può scrivere un documento scientifico. Può scrivere qualcosa che assomiglia a un documento scientifico, ma sarebbe una rilettura di qualcosa nei suoi dati di formazione. ChatGPT può scrivere poesia in qualsiasi genere, stile o lingua, ma è un poeta mediocre”.

L’interruzione sarà globale.

Goertzel ha concluso che ChatGPT manca di ragionamento e creatività e non può filtrare le idee oltre i suoi dati di formazione. Nonostante ciò, ha detto che l'IA, anche senza AGI, può ancora fare il 50-70 percento dei lavori umani. Allo stesso modo, Scanlon si è concentrata sui negativi dell’IA, affermando: “Ci saranno perdite di posti di lavoro. Succede in ogni rivoluzione.”

Mark Jordan, CEO di Skillnet Ireland, e Tracey Keogh, cofondatore di Grow Remote, hanno discusso quali lavori potrebbero essere più minacciati dall'IA. Jordan ha dichiarato che i ruoli di livello base sono in pericolo, specificando: “Le funzioni rivolte ai clienti saranno sostituite da chatbot avanzati. L’interruzione sarà globale e ne vedremo sempre di più man mano che questi chatbot diventeranno più avanzati”.

Jordan ha detto che i lavoratori dovrebbero pensare alle loro competenze e competenze fondamentali che consentiranno loro di competere per nuovi posti di lavoro.

“I lavori potrebbero cambiare, ma saranno ancora lì.”

Anche una tavola rotonda intitolata Algoritmi contro l’umanità ha affrontato la prospettiva di perdite di posti di lavoro. Sean O hEigeartaigh, Direttore del programma AI: Futures and Responsibility dell’Università di Cambridge, aveva gravi preoccupazioni riguardo all’impatto sociale che le perdite di posti di lavoro avranno sull’umanità.

I ruoli specificati includevano lavori di analisti digitali, artisti grafici e rappresentanti del servizio clienti. In quest’ultimo caso, ha notato che le persone nei Paesi in via di sviluppo stanno sottraendo le loro famiglie dalle trappole della povertà grazie a questi posti di lavoro, ma probabilmente le posizioni scompariranno. “Le persone che lavorano allo stesso lavoro da 20 anni non saranno una startup tecnologica il giorno successivo”, ha concluso.

Michael Richards, Direttore della politica presso le Camere di Commercio degli Stati Uniti, ha preso una visione più ottimistica delle prossime perdite di posti di lavoro, utilizzando l’esempio di conducenti di cavalli e carrozze che diventano conducenti di taxi quando sono state inventate le auto. “I lavori potrebbero cambiare, ma saranno ancora lì”, ha detto. Detto questo, Richards ha affermato che i sistemi di istruzione devono iniziare a preparare i loro studenti per i lavori di domani e che le aziende devono iniziare a preparare i loro dipendenti ai prossimi cambiamenti.

Regolamentare l'IA per proteggerla dai suoi pericoli

La regolamentazione è stata un altro tema fondamentale all’evento di quest’anno. Quando gli è stato chiesto se fosse d’accordo con la lettera pubblicizzata in cui si affermava che l’IA rappresentava una minaccia a livello di estinzione, O hEigeartaigh ha detto che era difficile aggirare il problema perché “non è come il cambiamento climatico, dove possiamo guardare ai CO2 livelli. Questi sono argomenti piuttosto che tendenze che possiamo vedere con fiducia”. Ha sottolineato, tuttavia, che l'IA non deve assumere una qualità di gara d'armi in cui la sicurezza e la regolamentazione saranno gettate fuori dalla finestra.

Richards ha preso una visione leggermente opposta dicendo che sarebbe un errore concentrarsi troppo sul danno che l'IA potrebbe fare. Piuttosto che mettere in pausa lo sviluppo dell’IA, ha affermato che l’innovazione dovrebbe essere consentita insieme ai guardrail: “I nostri [negli Stati Uniti] avversari continueranno a marciare avanti, ed è importante in questo momento che gli altri non vadano avanti”, ha affermato.

Sul lato opposto dell’argomento c’era Angelika Sharygina, Ambasciatrice di Techfugees e Ricercatrice politica. Di origine afgana e ucraina, con i membri della famiglia coinvolti in entrambi i conflitti, il suo punto di vista era che le disinformazione sull’IA possono portare a mancanza di sicurezza e perdita di vita, citando informazioni errate sui punti di evacuazione in tempi di guerra come esempio.

C'è fiducia pubblica nelle aziende tecnologiche dietro l'IA?

È interessante notare che Sharygina ha condotto un sondaggio sulla paglia con il pubblico per sapere se si fidavano delle aziende tecnologiche che sviluppano l'IA. Non è salita una sola mano. Ha continuato: “Quando l’accumulo di potere è solo nelle mani di alcune aziende tecnologiche, vediamo conseguenze terribili”, a cui ha ricevuto un applauso dalla folla.

In un fireside intitolato, How AI and Other Technologies are Helping to Advance DE&I in the Workplace, Sandra Healy, fondatrice e CEO di inclusio, ha seguito un brano simile: “OpenAI non è aperto perché non puoi entrare e testare i suoi dati, e il pregiudizio è incorporato.”

La collega Claire Thomas, Chief Diversity and Inclusion Officer di Hitachi Vantara, ha spiegato perché questo è un problema. Dal momento che ChatGPT sta ricevendo dati da Internet, nella sua produzione si stanno manifestando presupposti linguistici e umani. Ha citato l’esempio di ChatGPT che si riferisce ai chirurghi come “lui” e ai receptionist come “Lei”.

“L’IA sta usando i giudizi che sono stati messi nei modelli. Ciò potrebbe potenzialmente peggiorare il pregiudizio invece di migliorarlo”, ha concluso Thomas.

Ti piace leggere questo?
Contattaci