Angesichts der jüngsten Fortschritte auf diesem Gebiet überrascht es nicht, dass KI in diesem Jahr das übergeordnete Thema des Dublin Tech Summit war.

Den Vortragssitzungen wurde die alarmierende Aussage von 350 KI-Wissenschaftlern und Technologie-CEOs hinzugefügt, die KI zu einer „Bedrohung auf Ausrottungsebene“ erklärten. Der Zweck dieses Schreibens war es, die politischen Entscheidungsträger dazu zu bringen, sich der Technologie zu nähern, wie sie die Klimakrise und die Atomwaffen tun würden, was zu einer Debatte unter den Veranstaltungsrednern führen würde. Dr. Patricia Scanlon, Irlands erste KI-Botschafterin und Gründerin von Soapbox Labs, drückte diese vorsorgliche Stimmung aus und warnte, dass KI „kein Mode- und kein Produktivitätstool ist. Die Innovationen der KI werden anhalten – die Weltwirtschaft und jede Branche werden betroffen sein.“

ChatGPT hat KI ins Bewusstsein der Öffentlichkeit gebracht.

Scanlon kehrte zum Ursprung unserer aktuellen KI-Obsession zurück und wies darauf hin, dass vor einem Jahr die Welt nicht einmal über generative KI sprach, aber jetzt haben wir ein Tool: ChatGPT.

Scanlon erklärte, dass ChatGPT als „schmale oder schwache KI“ bekannt ist und der nächste Schritt dieser Entwicklung AGI (künstliche allgemeine Intelligenz) oder „starke KI“ ist. Vor ChatGPT wurde vorhergesagt, dass AGI in 30 oder 40 Jahren auftaucht. Scanlon sagt nun, dass die Gesellschaft mit der Vorbereitung beginnen muss, da sie schneller als ursprünglich angenommen kommen könnte.

Dr. Ben Goertzel, CEO und Gründer von SingularityNET, erklärte in seinem Vortrag, Large Language Models: What Comes Next?, dass es sehr wahrscheinlich ist, dass AGI in drei bis sieben Jahren erscheinen wird. Von ChatGPT hob Goertzel viele der Mängel der Technologie hervor. „ChatGPT kann kein Wissenschaftspapier schreiben. Es kann etwas schreiben, das wie ein Wissenschaftspapier aussieht, aber es wäre eine Neuinterpretation von etwas in seinen Schulungsdaten. ChatGPT kann Gedichte in jedem Genre, Stil oder jeder Sprache schreiben, aber es ist ein mittelmäßiger Dichter.“

Die Störung wird global sein.

Goertzel kam zu dem Schluss, dass ChatGPT keine Argumentation und Kreativität hat und keine Ideen über seine Schulungsdaten hinaus filtern kann. Trotzdem sagte er, dass KI, auch ohne AGI, immer noch 50-70 Prozent der menschlichen Arbeit erledigen kann. In ähnlicher Weise hat Scanlon die negativen Aspekte von KI verfeinert und erklärt: „Es wird zu Arbeitsplatzverlusten kommen. Das passiert in jeder Revolution.“

Mark Jordan, CEO von Skillnet Ireland, und Tracey Keogh, Mitbegründer von Grow Remote, diskutierten, welche Arbeitsplätze am stärksten von KI bedroht werden könnten. Jordan erklärte, dass Einstiegsrollen in Gefahr seien, und gab an: „Kundenorientierte Funktionen werden durch erweiterte Chatbots ersetzt. Die Disruption wird global sein, und wir werden immer mehr davon sehen, wenn diese Chatbots immer fortschrittlicher werden.“

Jordan sagte, die Arbeitnehmer sollten über ihre Kernkompetenzen und Fähigkeiten nachdenken, die es ihnen ermöglichen werden, um neue Stellen zu konkurrieren.

„Jobs können sich ändern, aber sie werden immer noch dort sein.“

Eine Podiumsdiskussion mit dem Titel Algorithmen gegen die Menschlichkeit befasste sich auch mit der Aussicht auf Arbeitsplatzverluste. Sean O hEigeartaigh, Director of AI: Futures and Responsibility Program an der University of Cambridge, hatte große Bedenken hinsichtlich der sozialen Auswirkungen, die Arbeitsplatzverluste auf die Menschheit haben werden.

Zu den von ihm angegebenen Rollen gehörten Jobs für digitale Analysten, Grafiker und Kundendienstmitarbeiter. Letzteres merkte er an, dass Menschen in Entwicklungsländern dank dieser Arbeitsplätze ihre Familien aus Armutsfallen ziehen, aber die Positionen werden wahrscheinlich verschwinden. „Menschen, die seit 20 Jahren dieselbe Arbeit verrichten, werden am nächsten Tag kein Technologie-Startup sein“, schloss er.

Michael Richards, Director of Policy bei den US-Handelskammern, nahm eine optimistischere Sicht auf kommende Arbeitsplatzverluste ein und nutzte das Beispiel, wie Pferde- und Kutschenfahrer zu Taxifahrern wurden, als Autos erfunden wurden. „Die Arbeitsplätze könnten sich ändern, aber sie werden immer noch dort sein“, sagte er. Allerdings erklärte Richards, dass Bildungssysteme ihre Studenten auf die Jobs von morgen vorbereiten müssen und dass Unternehmen ihre Mitarbeiter auf die kommenden Veränderungen vorbereiten müssen.

Regulierung von KI zum Schutz vor Gefahren

Regulierung war ein weiteres Kernthema bei der diesjährigen Veranstaltung. Auf die Frage, ob er dem veröffentlichten Schreiben zustimmte, dass KI eine Bedrohung auf Extinktionsebene darstellte, sagte O hEigeartaigh, es sei schwierig, sich abzusichern, da „das nicht wie der Klimawandel ist, in dem wir uns das CO2 Niveau ansehen können. Dies sind Argumente statt Trends, die wir mit Zuversicht sehen können.“ Er betonte jedoch, dass KI keine Waffenrennenqualität annehmen darf, bei der Sicherheit und Regulierung aus dem Fenster geworfen werden.

Richards war der Meinung, dass es ein Fehler wäre, sich zu sehr auf den Schaden zu konzentrieren, den KI verursachen könnte. Anstatt die Entwicklung von KI zu pausieren, erklärte er, dass Innovation neben den Leitplanken stattfinden sollte: „Unsere [die] Gegner würden weiterhin vorankommen, und es ist zu diesem Zeitpunkt wichtig, dass andere nicht vorankommen“, sagte er.

Auf der anderen Seite des Arguments stand Angelika Sharygina, Techfugees Ambassador und Political Researcher. Von afghanischer und ukrainischer Abstammung, bei der Familienmitglieder in beide Konflikte verwickelt waren, war ihre Ansicht, dass KI-Fehlinformationen zu Unsicherheit und Tod führen können, wobei sie zum Beispiel falsche Informationen über Evakuierungspunkte in Kriegszeiten anführte.

Gibt es öffentliches Vertrauen in die Technologieunternehmen hinter KI?

Interessanterweise führte Sharygina eine Strohumfrage mit dem Publikum durch, ob sie den Technologieunternehmen, die KI entwickeln, vertrauten. Es ist keine Hand hochgegangen. Sie fuhr fort: „Wenn die Akkumulation von Macht nur in den Händen einiger weniger Technologieunternehmen liegt, sehen wir schreckliche Konsequenzen“, zu denen sie eine Runde Applaus von der Masse erhielt.

In einem Kamin mit dem Titel Wie KI und andere Technologien helfen, DE&I am Arbeitsplatz voranzutreiben, folgte Sandra Healy, Gründerin und CEO von inclusio, einer ähnlichen Melodie: „OpenAI ist nicht geöffnet, weil man seine Daten nicht testen kann und Voreingenommenheit darin integriert ist.“

Kollege Claire Thomas, Chief Diversity and Inclusion Officer bei Hitachi Vantara, erklärte, warum dies ein Problem ist. Da ChatGPT Daten aus dem Internet liefert, zeigen sich in seiner Ausgabe voreingenommene Sprache und menschliche Annahmen. Sie zitierte das Beispiel von ChatGPT, das Chirurgen als „er“ und Empfangsmitarbeiter als „sie“ bezeichnete.

„KI nutzt die Urteile, die in die Modelle gesteckt wurden. Dies könnte die Voreingenommenheit potenziell verschlimmern, anstatt sie zu verbessern“, schloss Thomas.

Lesen Sie das gerne?
Kontakt