Sans surprise, compte tenu des récentes avancées dans le domaine, l'intelligence artificielle était le thème principal du Dublin Tech Summit cette année.
La déclaration alarmante émise par les scientifiques de l’350IA et les PDG de la technologie proclamant l’IA comme une « menace au niveau de l’extinction » a été ajoutée aux sessions de conférence. L’objectif de cette lettre était d’inciter les décideurs politiques à aborder la technologie comme ils le feraient pour la crise climatique et les armes nucléaires, suscitant le débat entre les intervenants de l’événement. Le Dr Patricia Scanlon, première ambassadrice irlandaise de l’IA et fondatrice de Soapbox Labs, a fait écho à ce sentiment de précaution et a averti que l’IA n’est « pas une mode et pas un outil de productivité. Les innovations de l’IA vont persister : l’économie mondiale et chaque secteur d’activité en seront affectés. »
ChatGPT a permis au public de prendre conscience de l’IA.
En revenant à l’origine de notre obsession actuelle pour l’IA, Scanlon a souligné qu’il y a un an, le monde ne parlait même pas d’IA générative, mais que nous disposons désormais d’un outil : ChatGPT.
Scanlon a expliqué que ChatGPT est connu sous le nom d’« IA étroite ou faible », et que l’étape suivante de cette évolution est l’AGI (intelligence générale artificielle) ou « IA forte ». Avant le ChatGPT, l’AGI devait émerger dans 30 ou 40 ans. Aujourd’hui, Scanlon dit que la société doit commencer à se préparer, car elle pourrait arriver plus rapidement qu’auparavant.
Le Dr Ben Goertzel, CEO et fondateur de SingularityNET, dans son discours, « Large Language Models : What Comes Next ? », a déclaré qu’il est très probable qu’AGI apparaisse dans trois à sept ans. De ChatGPT, Goertzel a mis en évidence bon nombre des lacunes de la technologie. « ChatGPT ne peut pas écrire un article scientifique. Il peut écrire quelque chose qui ressemble à un article scientifique, mais ce serait un refilement de quelque chose dans ses données d’entraînement. ChatGPT peut écrire de la poésie dans n’importe quel genre, style ou langue, mais c’est un poète médiocre. »
La perturbation sera mondiale.
Goertzel a conclu que ChatGPT manque de raisonnement et de créativité et ne peut pas filtrer les idées au-delà de ses données de formation. Malgré cela, il a déclaré que l’IA, même sans AGI, pouvait toujours faire 50-70 pour cent des emplois humains. De même, Scanlon a affiné les aspects négatifs de l’IA, en déclarant : « Il y aura des pertes d’emploi. Cela se produit à chaque révolution. »
Mark Jordan, CEO de Skillnet Ireland, et Tracey Keogh, cofondatrice de Grow Remote, ont discuté des emplois qui pourraient être les plus menacés par l’IA. Jordan a déclaré que les rôles d’entrée de gamme sont en danger, en précisant : « Les fonctions orientées client seront remplacées par des chatbots avancés. La perturbation sera mondiale, et nous en verrons de plus en plus à mesure que ces chatbots deviennent plus avancés. »
Jordan a déclaré que les travailleurs devaient réfléchir à leurs compétences et ensembles de compétences de base qui leur permettront de se mesurer à de nouveaux emplois.
« Les emplois peuvent changer, mais ils seront toujours là. »
Une table ronde intitulée Algorithmes contre l’humanité a également abordé la perspective de pertes d’emploi. Sean O hEigeartaigh, directeur de l’IA : Programme Futures and Responsibility à l’Université de Cambridge, a eu de graves inquiétudes quant à l’impact social que les pertes d’emploi auront sur l’humanité.
Les postes qu’il a spécifiés comprenaient les postes d’analystes numériques, les graphistes et les représentants du service client. Sur ce dernier, il a noté que les habitants des pays en voie de développement sortent leurs familles des pièges de la pauvreté grâce à ces emplois, mais les postes disparaîtront probablement. « Les personnes qui travaillent au même poste depuis des 20 années ne seront pas une start-up technologique le lendemain », a-t-il conclu.
Michael Richards, directeur des politiques aux Chambres de commerce des États-Unis, a adopté une vision plus optimiste des pertes d’emploi à venir, en utilisant l’exemple des conducteurs de chevaux et de calèches qui deviennent des conducteurs de taxi lorsque des voitures ont été inventées. « Les emplois peuvent changer, mais ils seront toujours là », a-t-il déclaré. Cela dit, Richards a déclaré que les systèmes éducatifs devaient commencer à préparer leurs étudiants aux emplois de demain et que les entreprises devaient commencer à préparer leurs employés aux changements à venir.
Réglementer l’IA pour se protéger contre ses dangers
La réglementation était un autre thème fondamental lors de l’événement de cette année. Lorsqu’on lui a demandé s’il était d’accord avec la lettre publiée indiquant que l’IA représentait une menace au niveau de l’extinction, O hEigeartaigh a déclaré qu’il était difficile de déterminer « ce n’est pas comme le changement climatique où nous pouvons examiner les CO2 niveaux. Ce sont des arguments plutôt que des tendances que nous pouvons voir en toute confiance. » Il a toutefois souligné que l’IA ne doit pas s’attaquer à la qualité de la course aux armements, par laquelle la sécurité et la réglementation seront jetées par la fenêtre.
Richards a adopté une vision quelque peu opposée en disant que ce serait une erreur de se concentrer trop sur le préjudice que l’IA pourrait faire. Plutôt que de mettre en pause le développement de l’IA, il a déclaré que l’innovation devrait être autorisée à se produire à côté des garde-fous : « Nos adversaires [des États-Unis] continueraient à avancer, et il est important à l’heure actuelle que les autres n’avancent pas », a-t-il affirmé.
Angelika Sharygina, ambassadrice des Techfugees et chercheuse politique, était fermement du côté opposé à l’argument. D’origine afghane et ukrainienne, les membres de la famille étant pris dans les deux conflits, son point de vue était que la désinformation liée à l’IA peut entraîner un manque de sécurité et la mort, citant comme exemple des informations incorrectes sur les points d’évacuation en temps de guerre.
Y a-t-il une confiance publique dans les entreprises technologiques derrière l’IA ?
Il est intéressant de noter que Sharygina a mené un sondage en paille auprès du public pour savoir si elles faisaient confiance aux entreprises technologiques qui développent l’IA. Pas une seule main ne s’est levée. Elle a poursuivi : « Lorsque l’accumulation de pouvoir n’est entre les mains que de quelques entreprises technologiques, nous voyons de terribles conséquences », auxquelles elle a reçu une série d’applaudissements de la part de la foule.
Dans une conférence intitulée « Comment l’IA et d’autres technologies contribuent à faire progresser la DE&I sur le lieu de travail », Sandra Healy, fondatrice et CEO d’inclusio, a suivi une phrase similaire : « OpenAI n’est pas ouvert parce que vous ne pouvez pas entrer et tester ses données, et les préjugés y sont intégrés. »
Claire Thomas, membre de la commission, directrice de la diversité et de l’inclusion chez Hitachi Vantara, a expliqué pourquoi il s’agit d’un problème. Étant donné que ChatGPT reçoit des données provenant d’Internet, un langage biaisé et des hypothèses humaines apparaissent dans ses résultats. Elle a cité l’exemple de ChatGPT en faisant référence aux chirurgiens comme « lui » et aux réceptionnistes comme « elle ».
« L’IA utilise les jugements qui ont été introduits dans les modèles. Cela pourrait potentiellement aggraver le préjugé au lieu de l’améliorer », a conclu Thomas.