Med tanke på de senaste framstegen inom området var det inte överraskande att artificiell intelligens var det övergripande temat på Dublin Tech Summit i år.

Att lägga till smak till talsessionerna var det alarmerande uttalandet som utfärdades av 350 AI-forskare och tekniska VD: er som proklamerar AI som ett "utrotningshot". Syftet med detta brev var att uppmana beslutsfattare att närma sig tekniken som de skulle klimatkris och kärnvapen, gnistor debatt bland händelse talare. Dr Patricia Scanlon, Irlands första AI-ambassadör och grundare av Soapbox Labs, upprepade denna försiktighetskänsla och varnade för att AI är "inte en modefluga och inte ett produktivitetsverktyg. Innovationerna inom AI kommer att bestå – den globala ekonomin och varje bransch kommer att påverkas.

ChatGPT har fört AI till allmänhetens medvetande.

När Scanlon återvände till ursprunget till vår nuvarande AI-besatthet påpekade han att världen för ett år sedan inte ens pratade om generativ AI, men nu har vi ett verktyg: ChatGPT.

Scanlon förklarade att ChatGPT är känt som "smal eller svag AI", och nästa steg i denna utveckling är AGI (Artificial General Intelligence) eller "stark AI". Före ChatGPT förutspåddes AGI dyka upp om 30 eller 40 år. Nu säger Scanlon att samhället måste börja förbereda sig eftersom det kan komma snabbare än vad som ursprungligen trodde.

Dr Ben Goertzel, CEO och grundare av SingularityNET, i sitt tal, Stora språkmodeller: Vad kommer nästa?, uppgav att det är mycket troligt att AGI kommer att visas om tre till sju år. Av ChatGPT belyste Goertzel många av teknikens brister. "ChatGPT kan inte skriva ett vetenskapligt papper. Det kan skriva något som ser ut som ett vetenskapligt papper, men det skulle vara en omgängning av något i dess träningsdata. ChatGPT kan skriva poesi i någon genre, stil eller språk, men det är en medioker poet.

Störningen kommer att vara global.

Goertzel drog slutsatsen att ChatGPT saknar resonemang och kreativitet och kan inte filtrera idéer utöver sina träningsdata. Trots detta sa han att AI, även utan AGI, fortfarande kan göra 50-70 procent av mänskliga jobb. På samma sätt finslipade Scanlon på negativa AI och sa: "Det kommer att bli arbetsförluster. Det sker i varje revolution.”

Mark Jordan, CEO för Skillnet Ireland, och Tracey Keogh, medgrundare av Grow Remote, diskuterade vilka jobb som kunde vara mest hotade av AI. Jordan uppgav att roller på ingångsnivå är i fara och specificerade: "Kundinriktade funktioner kommer att ersättas av avancerade chattrobotar. Störningen kommer att vara global, och vi kommer att se mer och mer av det när dessa chattrobotar blir mer avancerade.

Jordanien sade att arbetare bör tänka på sina kärnkompetenser och färdigheter som gör det möjligt för dem att konkurrera om nya jobb.

Jobb kan förändras, men de kommer fortfarande att vara där.

En paneldiskussion med titeln Algoritmer mot mänskligheten tog också upp utsikterna till förlust av arbetstillfällen. Sean O hEigeartaigh, chef för AI: Futures and Responsibility Program vid University of Cambridge, hade stor oro över den sociala inverkan som arbetsförluster kommer att ha på mänskligheten.

Roller han specificerade inkluderade digitala analytikerjobb, grafiska konstnärer och kundtjänstrepresentanter. På den senare noterade han att människor i utvecklingsländer drar sina familjer ur fattigdomsfällor tack vare dessa jobb, men positionerna kommer sannolikt att försvinna. "Människor som har arbetat samma jobb i 20 åratal kommer inte att bli en teknisk start nästa dag", avslutade han.

Michael Richards, politiker vid USA: s handelskammare, tog en mer optimistisk syn på kommande arbetsförluster, med hjälp av exemplet med häst- och vagnförare som taxiförare när bilar uppfanns. "Jobben kan förändras, men de kommer fortfarande att vara där", sa han. Som sagt, Richards sa att utbildningssystem måste börja förbereda sina elever för morgondagens jobb och att företagen måste börja förbereda sina anställda för de kommande förändringarna.

Reglering av AI för att skydda mot dess faror

Reglering var ett annat kärntema vid årets evenemang. På frågan om han höll med det publicerade brevet om att AI utgjorde ett utrotningshot, sa O hEigeartaigh att det var svårt att spika ner eftersom "det här är inte som klimatförändringar där vi kan titta på CO2 nivåer. Det här är argument snarare än trender som vi kan se med tillförsikt. Han betonade dock att AI inte får ta på sig en vapentävlingskvalitet där säkerhet och reglering kommer att kastas ut genom fönstret.

Richards tog en något motsatt syn och sa att det skulle vara ett misstag att fokusera för mycket på den skada som AI kunde göra. Snarare än att pausa utvecklingen av AI, sade han att innovation bör tillåtas hända tillsammans med skyddsräcken: "Våra [USA: s] motståndare skulle fortsätta att marschera framåt, och det är viktigt vid denna tidpunkt att andra inte går vidare med detta", posited han.

Fast på motsatt sida av argumentet var Angelika Sharygina, Techfugees Ambassador och Political Researcher. Av afghansk och ukrainsk härkomst, med familjemedlemmar fångade i båda konflikterna, var hennes synpunkt att AI-felinformation kan leda till osäkerhet och förlust av liv, med hänvisning till felaktig information om evakueringspunkter i krigstider som ett exempel.

Finns det allmänhetens förtroende för teknikföretagen bakom AI?

Intressant nog genomförde Sharygina en stråundersökning med publiken om huruvida de litade på teknikföretagen som utvecklade AI. Inte en enda hand gick upp. Hon fortsatte: "När maktackumuleringen bara ligger i händerna på några teknikföretag ser vi fruktansvärda konsekvenser", som hon fick en applåd från publiken.

I en eldstad med titeln How AI and Other Technologies are Helping to Advance DE&I in the Workplace följde Sandra Healy, grundare och CEO för inclusio, en liknande låt: "OpenAI är inte öppen eftersom du inte kan gå in och testa dess data och bias är inbyggd i den."

Medverkande paneldeltagare Claire Thomas, chef för mångfald och inkludering på Hitachi Vantara, förklarade varför detta är ett problem. Eftersom ChatGPT matas data från internet, biased språk och mänskliga antaganden visas i sin produktion. Hon citerade exemplet med ChatGPT som hänvisar till kirurger som "han" och receptionister som "hon".

”AI använder de bedömningar som har lagts in i modellerna. Detta kan potentiellt göra partiskheten värre istället för att göra den bättre, säger Thomas.

Gillar du att läsa detta?
Kontakta oss