Biorąc pod uwagę ostatnie postępy w tej dziedzinie, nie dziwi, że sztuczna inteligencja była nadrzędnym tematem podczas tegorocznego Dublin Tech Summit.
Dodanie smaku do sesji przemówień było niepokojącym oświadczeniem wydawanym przez naukowców z dziedziny 350 SI i dyrektorów generalnych technologii, które głosi, że AI jest „zagrożeniem na poziomie zagłady”. Celem niniejszego listu było nakłonienie decydentów do podejścia do tej technologii, tak jak do kryzysu klimatycznego i broni jądrowej, wzbudzając debatę wśród prelegentów. Dr Patricia Scanlon, pierwszy irlandzki ambasador sztucznej inteligencji i założycielka Soapbox Labs, powtórzyła to zapobiegawcze nastroje i ostrzegła, że AI „nie jest bladą, a nie narzędziem produktywności. Innowacje sztucznej inteligencji będą się utrzymywać — wpłynie to na globalną gospodarkę i każdą branżę”.
ChatGPT wzbogacił świadomość społeczeństwa o sztuczną inteligencję.
Wracając do początku naszej obecnej obsesji na temat sztucznej inteligencji, Scanlon zwrócił uwagę, że rok temu świat nie mówił nawet o generacyjnej sztucznej inteligencji, ale teraz mamy narzędzie: ChatGPT.
Scanlon wyjaśnił, że ChatGPT jest znany jako „wąska lub słaba sztuczna inteligencja”, a kolejnym etapem tej ewolucji jest AGI (sztuczna inteligencja ogólna) lub „silna sztuczna inteligencja”. Przed rozpoczęciem ChatGPT przewiduje się, że AGI pojawi się w 30 ciągu lub 40 lat. Teraz Scanlon mówi, że społeczeństwo musi zacząć przygotowywać się, ponieważ może nadejść szybciej niż początkowo sądziłam.
Dr Ben Goertzel, CEO i założyciel SingularityNET, w swoim prelekcji, Large Language Models: What Comes Next?, stwierdził, że bardzo prawdopodobne jest, że AGI pojawi się za trzy do siedmiu lat. W ChatGPT Goertzel podkreślił wiele niedociągnięć technologii. „ChatGPT nie może napisać artykułu naukowego. Może napisać coś, co wygląda jak artykuł naukowy, ale byłoby to przerobienie czegoś w danych szkoleniowych. ChatGPT może pisać poezję w dowolnym gatunku, stylu lub języku, ale jest to średni poeta”.
Zakłócenia będą globalne.
Goertzel stwierdził, że ChatGPT nie ma rozumowania i kreatywności i nie może filtrować pomysłów poza danymi szkoleniowymi. Mimo to powiedział, że sztuczna inteligencja, nawet bez AGI, nadal może wykonywać 50-70 % ludzkich zadań. Podobnie, Scanlon doskonalił negatywy AI, stwierdzając: „Będzie straty w pracy. Dzieje się tak podczas każdej rewolucji”.
Mark Jordan CEO Skillnet Ireland, i Tracey Keogh, współzałożycielka Grow Remote, omówili, które stanowiska mogą być najbardziej zagrożone przez AI. Jordan stwierdził, że podstawowe role są zagrożone, określając: „Funkcje mające kontakt z klientem zostaną zastąpione zaawansowanymi chatbotami. Zakłócenia będą globalne, a wraz z rozwojem tych chatbotów będziemy widzieć coraz więcej”.
Jordan powiedział, że pracownicy powinni myśleć o swoich podstawowych kompetencjach i umiejętnościach, które pozwolą im konkurować o nowe stanowiska.
„Prace mogą się zmienić, ale nadal tam będą”.
Dyskusja panelowa zatytułowana Algorytms Against Humanity dotyczyła również perspektywy utraty pracy. Sean O hEigeartaigh, dyrektor ds. AI: Futures and Responsibility Program na University of Cambridge, miał poważne obawy dotyczące wpływu społecznego, jaki utrata pracy na ludzkość.
Określone przez niego stanowiska obejmowały stanowiska analityków cyfrowych, artystów graficznych i przedstawicieli obsługi klienta. Z drugiej strony zauważył, że dzięki tym miejscom pracy ludzie w krajach rozwijających się wycofują swoje rodziny z pułapek ubóstwa, ale stanowiska prawdopodobnie znikną. „Ludzie, którzy pracują na tym samym stanowisku od 20 lat, nie będą startupem technologicznym następnego dnia” – podsumował.
Michael Richards, dyrektor ds. polityki w U.S. Chambers of Commerce, potraktował bardziej optymistycznie nadchodzące straty w pracy, na podstawie przykładu tego, że po wynalezieniu samochodów kierowcy koni i karetek stali się taksówkami. „Prace mogą się zmienić, ale nadal będą tam” — powiedział. Richards stwierdził jednak, że systemy edukacyjne muszą zacząć przygotowywać swoich uczniów do pracy w przyszłości, a firmy muszą zacząć przygotowywać swoich pracowników do nadchodzących zmian.
Regulowanie AI w celu ochrony przed jej niebezpieczeństwami
Kolejnym głównym tematem tegorocznego wydarzenia było rozporządzenie. Na pytanie, czy zgodził się z opublikowanym listem stwierdzającym, że sztuczna inteligencja stanowi zagrożenie na poziomie wyginięcia, O hEigeartaigh powiedział, że trudno jest złapać to jako „nie jest to jak zmiana klimatu, gdzie możemy przyjrzeć się CO2 poziomom. Są to raczej argumenty, a nie trendy, które widzimy z pewnością siebie”. Podkreślił jednak, że sztuczna inteligencja nie może mieć wpływu na jakość wyścigu na ramionach, podczas którego bezpieczeństwo i regulacja zostaną wyrzucone przez okno.
Richards przybrał nieco odwrotny pogląd, mówiąc, że błędem byłoby zbytnie skupienie się na szkodzie, jaką mogłaby wyrządzić AI. Zamiast wstrzymać rozwój sztucznej inteligencji, stwierdził, że innowacje powinny być dozwolone wraz z barierami: „Nasi [amerykańskie] przeciwnicy będą nadal wyprzedzać konkurencję i ważne jest, aby inni nie wyprzedzali tego problemu” – stwierdził.
Zdecydowanie po przeciwnej stronie argumentu była Angelika Sharygina, ambasadorka Techfugees i badaczka polityczna. W Afganie i Ukrainie, gdzie członkowie rodziny wpadli w oba konflikty, jej punktem widzenia było to, że dezinformacja oparta na sztucznej inteligencji może prowadzić do zagrożenia i utraty życia, podając na przykład nieprawidłowe informacje o punktach ewakuacyjnych w czasach wojny.
Czy istnieje publiczne zaufanie do firm technologicznych stojących za AI?
Co ciekawe, Sharygina przeprowadziła ankietę wśród odbiorców na temat tego, czy ufali firmom technologicznym zajmującym się opracowywaniem sztucznej inteligencji. Ani jedna ręka nie podniosła się. Kontynuowała: „Gdy akumulacja władzy leży tylko w rękach kilku firm technologicznych, widzimy straszne konsekwencje”, do których otrzymała od tłumu oklaski.
Sandra Healy, założycielka i CEO firmy inclusio, opowiadająca o tym, jak AI i inne technologie pomagają w rozwoju DE&I w miejscu pracy, podążała za podobnym brzmieniem: „OpenAI nie jest otwarta, ponieważ nie możesz wkroczyć i przetestować jej danych, a uprzedzenia są w nią wbudowane”.
Claire Thomas, dyrektor ds. różnorodności i integracji w Hitachi Vantara, wyjaśniła, dlaczego jest to problem. Ponieważ ChatGPT otrzymuje dane z Internetu, w jego wynikach pojawiają się stronniczy język i ludzkie założenia. Cytowała przykład ChatGPT, określając chirurgów jako „on”, a recepcjonistki jako „ona”.
„AI wykorzystuje osądy, które zostały wprowadzone do modeli. Może to pogorszyć tendencje, zamiast je poprawić” — podsumował Thomas.