毫不奇怪,鉴于该领域的最新进展,人工智能是今年都柏林科技峰会的首要主题。

AI350科学家和技术首席执行官发表的令人震惊的声明宣布AI成为“灭绝级威胁”。 这封信的目的是敦促政策制定者像气候危机和核武器一样接近这项技术,引发活动发言人的辩论。 爱尔兰第一位人工智能大使兼Soapbox Labs创始人Patricia Scanlon博士回应了这种预防性情绪,并警告说人工智能“不是一种时尚,也不是一种生产力工具。 人工智能的创新将持续下去——全球经济和每个行业都将受到影响。

ChatGPT 将 AI 带入公众意识。

回到我们目前对人工智能痴迷的起源,斯堪龙指出,一年前,世界甚至没有谈论生成式人工智能,但现在我们有了一个工具:ChatGPT。

Scanlon解释说,ChatGPT被称为“狭隘或弱AI”,而这种演变的下一步是AGI(人工智能)或“强AI”。 在 ChatGPT 之前,预计 AGI 将在 30 或 40 年内出现。 现在,斯堪龙说社会必须开始做好准备,因为它可能比最初想象的要快。

SingularityNET的CEO兼创始人Ben Goertzel博士在他的演讲中说,“大型语言模型:接下来会发生什么?”表示AGI很可能会在三到七年内出现。 在 ChatGPT 中,Goertzel 强调了该技术的许多缺点。 “ChatGPT不能写一篇科学论文。 它可以写一些看起来像一篇科学论文的东西,但它将是对训练数据中的东西的重新诠释。 ChatGPT可以写任何流派,风格或语言的诗歌,但这是一个平庸的诗人。

中断将是全球性的。

Goertzel得出结论,ChatGPT缺乏推理和创造力,无法过滤超出其训练数据的想法。 尽管如此,他表示,即使没有AGI,人工智能仍然可以完成50-70%的人类工作。 同样,斯堪的纳维亚也对人工智能的负面影响进行了磨练,他说:“会有失业。 它发生在每一次革命中”。

Skillnet Ireland CEO Mark Jordan 和 Grow Remote 联合创始人 Tracey Keogh 讨论了哪些工作可能受到人工智能的威胁最大。 Jordan表示,入门级角色处于危险之中,并指出:“面向客户的功能将被高级聊天机器人取代。 “这种中断将是全球性的,随着这些聊天机器人变得更加先进,我们将看到越来越多的这种中断。

乔丹说,工人应该考虑他们的核心能力和技能组合,这将使他们能够竞争新的工作。

“工作可能会改变,但他们仍然会在那里。

题为“反对人类的算法”的小组讨论也解决了失业的可能性。 剑桥大学AI:未来与责任计划主任Sean O hEigeartaigh对失业对人类的社会影响表示严重关切。

他指定的角色包括数字分析师职位、图形艺术家和客户服务代表。 在后者中,他指出,由于这些工作,发展中国家的人们正在将他们的家人从贫困陷阱中拉出来,但这些立场可能会消失。 “20那些多年来一直从事同一工作的人第二天不会成为一家科技创业公司,”他总结道。

美国商会政策总监迈克尔·理查兹对即将到来的失业持更乐观的态度,以马车司机在发明汽车时成为出租车司机为例。 “工作可能会改变,但他们仍然会在那里,”他说。 也就是说,理查兹确实表示,教育系统需要开始为学生为未来的工作做好准备,企业需要开始为即将到来的变化做好准备。

监管 AI 以防范其危险

监管是今年活动的另一个核心主题。 当被问及他是否同意这封公开信,称人工智能构成了灭绝级别的威胁时,O hEigeartaigh说很难确定为“这不像气候变化,我们可以看看CO2水平。 这些是我们可以自信地看到的论点而不是趋势。 然而,他强调,人工智能不能承担军备竞赛的质量,即安全和监管将被抛出窗口。

理查兹有点相反的观点说,过分关注人工智能可能带来的伤害将是一个错误。 他没有暂停人工智能的发展,而是表示应该允许创新与护栏一起发生:“我们【美国】的对手将继续前进,此时其他人不会前进,这很重要。

辩论的另一面是技术专家大使兼政治研究员Angelika Sharygina。 在阿富汗和乌克兰血统中,家庭成员陷入了两场冲突,她的观点是,人工智能错误信息可能导致不安全和生命损失,以战争时期疏散点的错误信息为例。

公众是否信任人工智能背后的科技公司?

有趣的是,Sharygina与观众进行了一次草编调查,了解他们是否信任开发AI的科技公司。 没有一只手抬起来。 “当权力的积累只掌握在少数科技公司手中时,我们看到了可怕的后果,”她从人群中得到了一轮掌声。

在题为“AI和其他技术如何帮助推进工作场所的DE&I”的炉边,inclusio的创始人兼CEOSandra Healy遵循了类似的调整:“OpenAI不是开放的,因为您无法进入并测试其数据,并且偏见是内置的。

Hitachi Vantara 首席多元化和包容性官 Claire Thomas 研究员解释了为什么这是一个问题。 由于 ChatGPT 正在从互联网上提供数据,因此其输出中出现了有偏见的语言和人类假设。 她引用了ChatGPT的例子,将外科医生称为“他”,接待员称为“她”。

“AI正在使用模型上的判断。 这可能会使偏见变得更糟,而不是变得更好,”托马斯总结道。

喜欢读这个吗?
联系我们