不足為奇的是,在業界的最新進展推動下,人工智慧就是今年都柏林技術峰會的首要主題。
為演講增添風味是350人工智慧科學家和技術執行長發佈的驚人聲明,宣稱人工智慧是滅絕威脅。 這封信的目的是敦促政策制定者像應對危機和核武器一樣接近這項技術,引發活動演講者之間的辯論。 Patricia Scanlon 博士 是愛爾蘭首位人工智慧大使,也是 Soapbox Labs 創辦人,他回應了這個預防性的情緒,並警告人工智慧不是流行的,也不是生產力工具。 人工智慧的創新將持續下去,全球經濟和每個產業都將受到影響。
ChatGPT 讓大眾意識到人工智慧。
Scanlon 指出,恢復我們目前對人工智慧的執著,一年前,世界甚至沒有提到生成性人工智慧,但現在我們有一個工具:ChatGPT。
Scanlon 解釋說,ChatGPT 被稱為“狹小或弱的 AI”,而這種發展的下一步是 AGI(人工智慧)或“強大的 AI”。 在 ChatGPT 之前,AGI 預計將在 30 至 40 年內出現。 現在 Scanlon 說,社會必須開始準備,因為它的速度可能比最初想像的更快。
SingularityNET CEO暨創辦人 Ben Goertzel 博士在演講中說,大型語言模型:接下來是什麼?,表示 AGI 極有可能在三到七年後出現。 在 ChatGPT 中,Goertzel 強調了這項技術的許多缺點。 ChatGPT 無法寫科學論文。 它可以寫出看起來像科學論文的東西,但它將是對訓練資料中某件事情的重新閱讀。 ChatGPT 可以用任何類型、風格或語言撰寫詩歌,但這是一首小型詩人。”
干擾將遍及全球。
Goertzel 的結論是,ChatGPT 缺乏理由和創造力,無法篩選超出其訓練資料以外的想法。 儘管如此,他表示,即使沒有 AGI,AI 仍可執行 50-70% 的人力工作。 同樣地,斯堪隆也從人工智慧的負面因素中磨練出來,說:“將會失去工作。 每一場革命都會發生。”
Skillnet Ireland 執行長 Mark Jordan 和 Grow Remote 共同創辦人 Tracey Keogh 討論了哪些工作最受人工智慧威脅。 CEO Jordan表示,入門級角色處於危險之中,指定:“面向客戶的功能將被進階聊天機器人取代。 干擾將會是全球性的,隨著這些聊天機器人的進步,我們將看到越來越多的干擾。”
Jordan 說,員工應該考慮其核心能力和技能組合,這將使他們能夠爭取新工作。
“工作可能會改變,但它們仍然存在。”
標題為反對人道的演算法的小組討論也解決了工作損失的可能。 Sean O hEigeartaigh 是劍橋大學的人工智慧:期貨與責任計畫總監,對於失業對人類的社會影響深感擔憂。
他指定的職務包括數位分析師工作、平面藝術家和客戶服務代表。 在後者,他指出,由於這些工作,開發中國家的人們正在將他們的家庭從貧窮陷阱中撤出,但這些職位可能會消失。 他說:“20多年來一直在從事相同工作的人,第二天不會是科技新創公司”。
美國商會政策總監 Michael Richards 更樂觀地看待未來的失業情況,以馬車駕駛人為例,在發明汽車時成為計程車駕駛人。 “工作可能會改變,但它們仍然存在,”他說。 話雖如此,理查德斯確實表示教育系統需要開始為學生準備明日的工作,而企業需要開始為員工準備即將到來的變革。
規範人工智慧以防止其危險
法規是今年活動的另一個核心主題。 當被問及他是否同意該公開信中說明 AI 構成滅絕層級的威脅時,O hEigeartaigh 表示很難擊倒,因為 “這不像我們能查看CO2層級的氣候變遷。 這些都是論點,而不是我們可以自信地看到的趨勢。” 然而,他強調 AI 絕對不能採取手臂競賽品質,因此安全與法規會拋棄窗口。
Richards 採取有點相反的觀點,說過度關注 AI 可能帶來的傷害會是個錯誤。 他說,創新應該可以伴隨護欄一起進行,而不是暫停開發 AI:“我們【美國】的對手將繼續向前邁進,此時其他人不會向前邁進,這一點很重要,”他說。
爭論的另一面是 Angelika Sharygina,Techfugees 大使和政治研究人員。 在阿富汗和烏克蘭後裔中,家人陷入了兩種衝突,她的觀點是人工智慧錯誤資訊可能導致不安全和生命損失,以戰爭時期的撤離點為例。
對人工智慧背後的科技公司是否有公信力?
有趣的是,Sharrygina 與觀眾進行了吸管調查,瞭解他們是否信任開發人工智慧的技術公司。 不是一隻手上了起來。 她繼續說,“當權力的累積只發生在一些科技公司的手中時,我們看到了可怕的後果,”她得到了來自人群的一輪讚譽。
在標題為 的火爐旁,人工智慧和其他技術如何協助推動工作場所的 DE&I,包容創始人兼CEO Sandra Healy 也跟著類似的演說: “OpenAI 不開放,因為您無法進入並測試其資料,而且它內建了偏見。”
Hitachi Vantara 的多元化與包容長 Claire Thomas 解釋了為什麼這是個問題。 由於 ChatGPT 是從網際網路饋送資料,因此有偏誤的語言和人為假設出現在輸出中。 她將 ChatGPT 的例子引述為外科醫生“他”,接待員則稱作“她”。
“AI 運用了模型中的判斷力。 這可能會讓偏見變得更糟,而不是變得更好。