Não é de surpreender que, diante dos avanços recentes na área, a inteligência artificial tenha sido o principal tema abordado no Dublin Tech Summit deste ano.
A declaração alarmante emitida por cientistas de 350 IA e CEOs de tecnologia proclamando a IA como uma “ameaça no nível da extinção”. O objetivo desta carta era incentivar os formuladores de políticas a abordar a tecnologia como fariam com a crise climática e as armas nucleares, estimulando o debate entre os palestrantes do evento. A Dra. Patricia Scanlon, a primeira embaixadora de IA da Irlanda e fundadora da Soapbox Labs, ecoou esse sentimento de precaução e alertou que a IA “não é uma moda e não uma ferramenta de produtividade. As inovações da IA persistirão — a economia global e todos os setores serão afetados.”
O ChatGPT trouxe a IA à consciência do público.
Invertendo a origem da nossa atual obsessão por IA, Scanlon apontou que há um ano, o mundo nem estava falando sobre IA generativa, mas agora temos uma ferramenta: ChatGPT.
Scanlon explicou que o ChatGPT é conhecido como “IA estreita ou fraca”, e o próximo passo dessa evolução é a AGI (inteligência geral artificial) ou “IA forte”. Antes do ChatGPT, previa-se que a AGI emergisse em 30 ou 40 anos. Agora, Scanlon diz que a sociedade deve começar a se preparar, pois isso pode ser mais rápido do que se pensava inicialmente.
O Dr. Ben Goertzel, CEO e fundador da SingularityNET, em sua palestra, Large Language Models: What Comes Next?, afirmou que é altamente provável que a AGI apareça em três a sete anos. Da ChatGPT, Goertzel destacou muitas das deficiências da tecnologia. “O ChatGPT não pode escrever um artigo científico. Pode escrever algo que se parece com um artigo científico, mas seria uma reintrodução de algo em seus dados de treinamento. O ChatGPT pode escrever poesia em qualquer gênero, estilo ou linguagem, mas é um poeta medíocre.”
A interrupção será global.
Goertzel concluiu que o ChatGPT não tem raciocínio e criatividade e não pode filtrar ideias além de seus dados de treinamento. Apesar disso, ele disse que a IA, mesmo sem AGI, ainda pode fazer 50-70 por cento dos trabalhos humanos. Da mesma forma, Scanlon se aperfeiçoou com base nos aspectos negativos da IA, afirmando: “Haverá perdas de emprego. Acontece em cada revolução.”
Mark Jordan ,CEO da Skillnet Ireland, e Tracey Keogh, cofundador da Grow Remote, discutiram quais empregos poderiam ser mais ameaçados pela IA. Jordan afirmou que as funções de nível básico estão em perigo, especificando: “As funções voltadas para o cliente serão substituídas por chatbots avançados. A interrupção será global, e veremos cada vez mais disso à medida que esses chatbots se tornarem mais avançados.”
Jordan disse que os trabalhadores devem pensar em suas competências essenciais e conjuntos de habilidades que lhes permitirão competir por novos empregos.
“Os cargos podem mudar, mas ainda estarão lá.”
Um painel de discussão intitulado Algoritmos contra a humanidade também abordou a perspectiva de perdas de emprego. Sean O hEigeartaigh, diretor de IA: Programa de Futuros e Responsabilidade da Universidade de Cambridge, teve graves preocupações com relação ao impacto social que as perdas de emprego terão sobre a humanidade.
As funções que ele especificou incluíram empregos de analistas digitais, artistas gráficos e representantes de atendimento ao cliente. No último, ele observou que as pessoas nos países em desenvolvimento estão retirando suas famílias das armadilhas da pobreza graças a esses empregos, mas as posições provavelmente desaparecerão. “As pessoas que trabalham no mesmo trabalho há 20 anos não serão uma startup de tecnologia no dia seguinte”, concluiu.
Michael Richards, diretor de políticas da Câmara de Comércio dos EUA, teve uma visão mais otimista das próximas perdas de emprego, usando o exemplo de motoristas de cavalos e carruagens se tornando motoristas de táxi quando os carros foram inventados. "Os empregos podem mudar, mas ainda estarão lá", disse. Dito isso, Richards afirmou que os sistemas educacionais precisam começar a preparar seus alunos para os trabalhos de amanhã e que as empresas precisam começar a preparar seus funcionários para as próximas mudanças.
Regulamentação da IA para proteção contra seus perigos
A regulamentação foi outro tema central no evento deste ano. Quando perguntado se ele concordou com a carta divulgada afirmando que a IA representava uma ameaça de nível de extinção, O hEigeartaigh disse que era difícil desvendar, já que “isso não é como a mudança climática, onde podemos olhar para CO2 os níveis. Esses são argumentos em vez de tendências que podemos ver com confiança.” Ele enfatizou, no entanto, que a IA não deve assumir uma qualidade de corrida armamentista pela qual a segurança e a regulamentação serão jogadas fora da janela.
Richards teve uma visão um pouco oposta dizendo que seria um erro focar demais no dano que a IA poderia causar. Em vez de pausar o desenvolvimento da IA, ele afirmou que a inovação deve ser permitida juntamente com proteções: “Nossos adversários [dos EUA] continuariam marchando à frente, e é importante neste momento que outros não se avancem”, afirmou ele.
No lado oposto do argumento estava Angelika Sharygina, embaixadora da Techfugees e pesquisadora política. De descendência afegã e ucraniana, com membros da família envolvidos em ambos os conflitos, seu ponto de vista era que a desinformação da IA pode levar à dessegurança e perda de vidas, citando informações incorretas sobre pontos de evacuação em tempos de guerra como exemplo.
Há confiança pública nas empresas de tecnologia por trás da IA?
Curiosamente, Sharygina conduziu uma pesquisa com o público sobre se eles confiavam nas empresas de tecnologia que desenvolvem IA. Nenhuma mão subiu. Ela continuou: “Quando o acúmulo de poder está apenas nas mãos de algumas empresas de tecnologia, vemos consequências terríveis”, para as quais ela recebeu um aplausos da multidão.
Em uma apresentação intitulada Como a IA e outras tecnologias estão ajudando a promover a DE&I no local de trabalho, Sandra Healy, fundadora e CEO da inclusio, seguiu uma música semelhante: “A OpenAI não está aberta porque você não pode entrar e testar seus dados, e o viés está incorporado a ela”.
A colega palestrante Claire Thomas, diretora de diversidade e inclusão da Hitachi Vantara, explicou por que isso é um problema. Como o ChatGPT está sendo alimentado com dados da internet, linguagem tendenciosa e suposições humanas estão aparecendo em sua produção. Ela citou o exemplo de ChatGPT referindo-se a cirurgiões como “ele” e recepcionistas como “ela”.
“A IA está usando os julgamentos que foram colocados nos modelos. Isso poderia potencialmente piorar o viés em vez de melhorá-lo”, concluiu Thomas.