Gezien de recente ontwikkelingen in het veld, is het niet verrassend dat kunstmatige intelligentie dit jaar het overkoepelende thema was op de Dublin Tech Summit.

Het toevoegen van smaak aan de spreeksessies was de alarmerende verklaring van 350 AI-wetenschappers en tech CEO's die AI uitriepen tot een "dreiging op dwangniveau". Het doel van deze brief was om beleidsmakers aan te sporen om de technologie te benaderen zoals ze de klimaatcrisis en kernwapens zouden aanpakken, waardoor debat onder sprekers van evenementen zou op gang komen. Dr. Patricia Scanlon, de eerste AI-ambassadeur van Ierland en de oprichter van Soapbox Labs, weerklonk dit voorzorgssssentiment en waarschuwde dat AI “geen rage is en geen productiviteitsinstrument. De innovaties van AI zullen blijven bestaan — de wereldeconomie en elke sector zullen worden beïnvloed.”

ChatGPT heeft AI onder de aandacht van het publiek gebracht.

Om terug te keren naar de oorsprong van onze huidige AI-obsessie, wees Scanlon erop dat een jaar geleden de wereld niet eens over generatieve AI sprak, maar nu hebben we een tool: ChatGPT.

Scanlon legde uit dat ChatGPT bekend staat als "smalle of zwakke AI", en de volgende stap van deze evolutie is AGI (Artificial General Intelligence) of "sterke AI". Voor ChatGPT werd voorspeld dat AGI in 30 of 40 jaren op zou komen. Nu zegt Scanlon dat de maatschappij zich moet gaan voorbereiden, omdat het sneller kan komen dan aanvankelijk gedacht.

Dr. Ben Goertzel, CEO en oprichter van SingularityNET, verklaarde in zijn gesprek, Large Language Models: What Comes Next?, dat het zeer waarschijnlijk is dat AGI over drie tot zeven jaar zal verschijnen. CEO Van ChatGPT benadrukte Goertzel veel van de tekortkomingen van de technologie. “ChatGPT kan geen science paper schrijven. Het kan iets schrijven dat eruitziet als een wetenschapsdocument, maar het zou een hernieuwde invulling zijn van iets in zijn trainingsgegevens. ChatGPT kan poëzie schrijven in elk genre, elke stijl of elke taal, maar het is een middelmatige dichter.”

De verstoring zal wereldwijd zijn.

Goertzel concludeerde dat ChatGPT geen redenering en creativiteit heeft en ideeën niet kan filteren buiten zijn trainingsgegevens. Desondanks zei hij dat AI, zelfs zonder AGI, nog steeds 50-70 procent van het menselijk werk kan doen. Op dezelfde manier richtte Scanlon zich op de negatieve punten van AI en zei: "Er zullen banen verloren gaan. Het gebeurt in elke revolutie.”

Mark Jordan , CEO van Skillnet Ireland, en Tracey Keogh , medeoprichter van Grow Remote, bespraken welke banen het meest bedreigd zouden kunnen worden door AI. Jordan verklaarde dat rollen op instapniveau in gevaar zijn en specificeerde: “Klantgerichte functies worden vervangen door geavanceerde chatbots. De verstoring zal wereldwijd zijn en daar zullen we steeds meer van zien naarmate deze chatbots geavanceerder worden.”

Jordan zei dat werknemers moeten nadenken over hun kerncompetenties en vaardigheden die hen in staat zullen stellen om te concurreren voor nieuwe functies.

“Functies kunnen veranderen, maar ze zullen er nog steeds zijn.”

In een paneldiscussie met de titel Algoritmen tegen de mensheid werd ook ingegaan op het vooruitzicht van baanverlies. Sean O hEigeartaigh, directeur van AI: Futures and Responsibility Program aan de Universiteit van Cambridge, maakte zich grote zorgen over de sociale impact die baanverlies op de mensheid zal hebben.

Functies die hij specificeerde waren onder andere digitale analistenbanen, grafische artiesten en vertegenwoordigers van de klantenservice. In dat laatste merkte hij op dat mensen in ontwikkelingslanden hun gezinnen dankzij deze banen uit armoedevalkuilen halen, maar dat de posities waarschijnlijk zullen verdwijnen. “Mensen die al 20 jaren dezelfde baan hebben, zullen de volgende dag geen tech-startup zijn”, concludeerde hij.

Michael Richards, Director of Policy bij de U.S. Chambers of Commerce, nam een optimistischer beeld van het aankomende verlies van banen, waarbij hij het voorbeeld gebruikte van paard- en wagenchauffeurs die taxichauffeurs werden toen auto's werden uitgevonden. “Jobs kunnen veranderen, maar ze zullen er nog steeds zijn,” zei hij. Dat gezegd hebbende, verklaarde Richards wel dat onderwijsstelsels hun studenten moeten gaan voorbereiden op de banen van morgen en dat bedrijven moeten beginnen met het voorbereiden van hun werknemers op de komende veranderingen.

Het reguleren van AI om te beschermen tegen de gevaren ervan

Regelgeving was een ander kernthema tijdens het evenement van dit jaar. Op de vraag of hij het eens was met de gepubliceerde brief waarin stond dat AI een bedreiging op uitstervensniveau vormde, zei O hEigeartaigh dat het moeilijk was om het vast te leggen als “dit is niet als klimaatverandering waar we naar CO2 niveaus kunnen kijken. Dit zijn argumenten in plaats van trends die we met vertrouwen kunnen zien.” Hij benadrukte echter dat AI geen wapenracekwaliteit mag aannemen waarbij veiligheid en regulering uit het raam worden gegooid.

Richards nam een enigszins tegengestelde mening en zei dat het een fout zou zijn om te veel te focussen op de schade die AI zou kunnen toebrengen. In plaats van de ontwikkeling van AI te pauzeren, verklaarde hij dat innovatie naast relingen zou moeten plaatsvinden: “Onze [de Amerikaanse] tegenstanders zouden vooruit blijven marcheren, en het is op dit moment belangrijk dat anderen dit niet voorblijven”, stelde hij.

Aan de andere kant van het argument zat Angelika Sharygina, Techfugees Ambassador en Political Researcher. Van Afghaanse en Oekraïense afkomst, met familieleden in beide conflicten, was haar standpunt dat verkeerde AI-informatie kan leiden tot onveiligheid en verlies van mensenlevens, waarbij onjuiste informatie over evacuatiepunten in tijden van oorlog als voorbeeld wordt genoemd.

Is er publiek vertrouwen in de technologiebedrijven achter AI?

Interessant is dat Sharygina een peiling met het publiek heeft gehouden over de vraag of ze vertrouwden op de technologiebedrijven die AI ontwikkelden. Er ging niet één hand omhoog. Ze vervolgde: "Als de accumulatie van macht alleen in handen is van een paar technologiebedrijven, zien we vreselijke gevolgen", waarop ze een applaus van de massa kreeg.

In een vuurtoren genaamd How AI and Other Technologies are Helping to Advance DE&I in the Workplace, volgde Sandra Healy, oprichter en CEO van inclusio, een vergelijkbare tune: “OpenAI is niet open omdat je de gegevens niet kunt testen en er vooroordelen in zijn ingebouwd.”

De medepanellid Claire Thomas, Chief Diversity and Inclusion Officer bij Hitachi Vantara, legde uit waarom dit een probleem is. Aangezien ChatGPT gegevens van het internet krijgt, verschijnen er bevooroordeelde taal en menselijke veronderstellingen in de output. Ze noemde het voorbeeld van ChatGPT dat naar chirurgen verwijst als “hij” en receptionisten als “zij”.

“AI gebruikt de oordelen die in de modellen zijn verwerkt. Dit kan de vooroordelen mogelijk erger maken in plaats van het beter te maken”, concludeerde Thomas.

Veel leesplezier?
Neem contact met ons op