Como era de esperarse, dados los avances recientes en el campo, la inteligencia artificial fue el tema principal de la Cumbre de Tecnología de Dublín este año.
Agregando sabor a las sesiones de oratoria se encontraba la alarmante declaración emitida por científicos de 350 IA y directores ejecutivos de tecnología que proclamaban a la IA como una “amenaza a nivel de extinción”. El propósito de esta carta fue instar a los responsables de las políticas a abordar la tecnología como lo harían con la crisis climática y las armas nucleares, lo que despertó el debate entre los oradores del evento. La Dra. Patricia Scanlon, la primera embajadora de IA de Irlanda y fundadora de Soapbox Labs, hizo eco de este sentimiento de precaución y advirtió que la IA “no es una moda y no una herramienta de productividad. Las innovaciones de la IA persistirán: la economía global y cada industria se verán afectadas”.
ChatGPT ha llevado la IA a la conciencia del público.
Volviendo al origen de nuestra obsesión actual por la IA, Scanlon señaló que hace un año, el mundo ni siquiera hablaba de la IA generativa, pero ahora tenemos una herramienta: ChatGPT.
Scanlon explicó que ChatGPT se conoce como “IA estrecha o débil”, y el siguiente paso de esta evolución es la inteligencia general artificial (Artificial General Intelligence, AGI) o “IA fuerte”. Antes de ChatGPT, se predijo que el AGI surgiría en 30 o 40 años. Ahora, Scanlon dice que la sociedad debe comenzar a prepararse, ya que podría llegar más rápido de lo que pensaba inicialmente.
El Dr. Ben Goertzel, CEO y fundador de SingularityNET, en su discurso, Large Language Models: ¿Qué viene después?, declaró que es muy probable que AGI aparezca en tres a siete años. De ChatGPT, Goertzel destacó muchas de las deficiencias de la tecnología. “ChatGPT no puede escribir un artículo científico. Puede escribir algo que se parece a un artículo científico, pero sería un reproceso de algo en sus datos de capacitación. ChatGPT puede escribir poesía en cualquier género, estilo o idioma, pero es un poeta mediocre”.
La interrupción será global.
Goertzel concluyó que ChatGPT carece de razonamiento y creatividad y no puede filtrar ideas más allá de sus datos de capacitación. A pesar de esto, dijo que la IA, incluso sin AGI, aún puede hacer el 50-70 por ciento de los trabajos humanos. De manera similar, Scanlon se afiló a los aspectos negativos de la IA y declaró: “Habrá pérdidas de empleo. Sucede en cada revolución”.
Mark Jordan, CEO de Skillnet Ireland, y Tracey Keogh, cofundadora de Grow Remote, analizaron qué trabajos podrían verse más amenazados por la IA. Jordan declaró que los roles de nivel básico están en peligro, especificando: “Las funciones orientadas al cliente serán reemplazadas por chatbots avanzados. La interrupción será global, y veremos cada vez más de eso a medida que estos chatbots avancen”.
Jordan dijo que los trabajadores deben pensar en sus competencias y conjuntos de habilidades centrales que les permitirán competir por nuevos trabajos.
“Los puestos de trabajo pueden cambiar, pero seguirán allí”.
Un panel de debate titulado Algoritmos contra la humanidad también abordó la posibilidad de pérdidas de empleo. Sean O hEigeartaigh, director del Programa de Responsabilidad y Futuros de IA de la Universidad de Cambridge, tuvo graves preocupaciones con respecto al impacto social que las pérdidas de empleo tendrán en la humanidad.
Los roles que especificó incluyeron trabajos de analistas digitales, artistas gráficos y representantes de servicio al cliente. En este último, observó que las personas de los países en desarrollo están sacando a sus familias de las trampas de pobreza gracias a estos empleos, pero es probable que los puestos desaparezcan. “Las personas que han estado trabajando en el mismo trabajo durante 20 años no serán una empresa emergente de tecnología al día siguiente”, concluyó.
Michael Richards, director de Políticas de las Cámaras de Comercio de los EE. UU., tomó una visión más optimista de las próximas pérdidas de empleo, utilizando el ejemplo de conductores de caballos y carruajes que se convirtieron en conductores de taxis cuando se inventaron los automóviles. “Los puestos de trabajo pueden cambiar, pero aún estarán allí”, dijo. Dicho esto, Richards indicó que los sistemas educativos deben comenzar a preparar a sus estudiantes para los trabajos del mañana y que las empresas deben comenzar a preparar a sus empleados para los próximos cambios.
Regulación de la IA para proteger contra sus peligros
La regulación fue otro tema central en el evento de este año. Cuando se le preguntó si estaba de acuerdo con la carta publicitada que indicaba que la IA representaba una amenaza a nivel de extinción, O hEigeartaigh dijo que era difícil de determinar ya que “esto no es como el cambio climático, donde podemos observar CO2 los niveles. Estos son argumentos en lugar de tendencias que podemos ver con confianza”. Sin embargo, destacó que la IA no debe asumir una calidad de carrera de armas por la que la seguridad y la regulación se descarten.
Richards adoptó una visión algo opuesta diciendo que sería un error enfocarse demasiado en el daño que la IA podría hacer. En lugar de pausar el desarrollo de la IA, declaró que se debería permitir que la innovación suceda junto con las barandillas: “Nuestros adversarios [de los EE. UU.] continuarían avanzando, y es importante en este momento que otros no avancen por delante de esto”, afirmó.
En el lado opuesto del argumento se encontraba Angelika Sharygina, embajadora e investigadora política de Techfugees. De ascendencia afgana y ucraniana, con familiares atrapados en ambos conflictos, su punto de vista era que la desinformación de IA puede conducir a la falta de seguridad y la pérdida de vidas, citando información incorrecta sobre los puntos de evacuación en tiempos de guerra como ejemplo.
¿Hay confianza pública en las empresas tecnológicas detrás de la IA?
Curiosamente, Sharygina realizó una encuesta de popote con la audiencia sobre si confiaban en las empresas tecnológicas que desarrollaban IA. No se levantó una sola mano. Continuó: “Cuando la acumulación de poder está solo en manos de algunas empresas tecnológicas, vemos consecuencias terribles”, a las que recibió un aplauso de la multitud.
En una fogata titulada, Cómo la IA y otras tecnologías ayudan a avanzar en la DE&I en el lugar de trabajo, Sandra Healy, fundadora y CEO de inclusio, siguió una canción similar: “OpenAI no está abierto porque no se pueden entrar y probar sus datos, y el sesgo está integrado en él”.
La compañera de panel Claire Thomas, directora de Diversidad e Inclusión de Hitachi Vantara, explicó por qué esto es un problema. Dado que ChatGPT se alimenta de datos de Internet, el lenguaje sesgado y las suposiciones humanas aparecen en su resultado. Citó el ejemplo de ChatGPT que se refiere a los cirujanos como “él” y a los recepcionistas como “ella”.
“La IA está utilizando los juicios que se han puesto en los modelos. Esto podría empeorar el sesgo en lugar de mejorarlo”, concluyó Thomas.