この分野の最近の進歩を考慮すると、人工知能(AI)が今年のダブリン・テック・サミットの最も重要なテーマであったのも、至極当然といえます。
講演セッションに風味を加えることは、350AI科学者と技術CEOが“絶滅レベルの脅威”と宣言した驚くべき声明だった。 この書簡の目的は、危機や核兵器を気候化させるように、政策立案者に技術にアプローチするよう促し、イベント講演者の間で議論を巻き起こすことだった。 アイルランド初のAI大使であり、Soapbox Labsの創設者であるPatricia Scanlon博士は、この予防的な感情を反響させ、AIは“流行ではなく、生産性ツールではない”と警告した。 AIのイノベーションは持続するだろう――世界経済とあらゆる業界が影響を受けるだろう。
ChatGPT は AI を一般の人々の意識にもたらしました。
Scanlonは、現在のAIへの執着の起源に立ち返って、1年前、世界はジェネレーティブAIについてさえ話していないと指摘しましたが、今ではChatGPTというツールがあります。
Scanlonは、ChatGPTは“狭く弱いAI”として知られており、この進化の次のステップはAGI(Artificial General Intelligence)または“強力なAI”であると説明した。 ChatGPT以前は、AGIは30または40年に出現すると予測されていました。 今、Scanlonは、社会は当初考えられていたよりも早く来る可能性があるため、準備を開始しなければならないと言います。
SingularityNETのCEO兼創設者であるBen Goertzel博士は、Large Language Models: What Comes Next?の講演で、AGIが3~7年後に登場する可能性は高いと述べています。 ChatGPTの中で、Goertzelはテクノロジーの欠点の多くを強調しました。 ChatGPTは科学論文を書くことができない。 それは科学論文のようなものを書くことができますが、それはそのトレーニングデータに何かの再スレッドになります。 ChatGPTはあらゆるジャンル、スタイル、言語で詩を書くことができますが、それは中世の詩人です。
その混乱はグローバルなものになるだろう。
Goertzelは、ChatGPTには推論と創造性がなく、トレーニングデータを超えてアイデアをフィルタリングすることはできないと結論付けました。 それにもかかわらず、AIは、AGIがなくても、人間の仕事の50-70何パーセントもできると彼は述べた。 同様に、ScanlonはAIの否定に賛成し、“失業するだろう。 それはあらゆる革命で起こる。
Skillnet IrelandのCEOであるMark JordanとGrow Remoteの共同創設者であるTracey Keoghが、AIによって最も脅かされる可能性のある仕事について議論した。 Jordanは、エントリーレベルのロールが危険にさらされていると述べ、\"顧客向けの機能は高度なチャットボットに置き換えられます。 混乱は世界的になり、これらのチャットボットがますます進化するにつれて、私たちはますますそれを見るでしょう。
ジョーダンは、労働者が新しい仕事のために競争できるようにするコアコンピテンシーとスキルセットについて考えるべきであると述べた。
仕事は変わるかもしれないが、彼らはまだそこにいるだろう。
Algorithms Against Humanityという名前のパネルディスカッションは、失業の見通しについても言及した。 ケンブリッジ大学のAI: Futures and Responsibility ProgramのディレクターであるSean O hEigeartaighは、失業が人類に与える社会的影響について深刻な懸念を持っていました。
彼が指定した役割には、デジタルアナリストの仕事、グラフィックアーティスト、カスタマーサービス担当者が含まれていました。 後者については、途上国の人々はこれらの雇用のおかげで家族を貧困の罠から引き離しているが、その地位はおそらく消えるだろうと述べた。 何20年も同じ仕事をしてきた人々は、翌日にはテクノロジーのスタートアップになるつもりはない。
米国商工会議所の政策担当ディレクターであるマイケル・リチャーズは、自動車が発明されたときに馬車の運転手がタクシーの運転手になった例を使って、今後の失業についてより楽観的な見方をしました。 “仕事は変わるかもしれないが、彼らはまだそこにいるだろう”と彼は言った。 リチャーズ氏は、教育システムは明日の仕事のために学生の準備を始める必要があると述べ、企業は次の変化のために従業員の準備を始める必要があると述べた。
AI を規制して危険から保護する
今年のイベントでは、規制がもう一つのテーマでした。 AIが絶滅レベルの脅威をもたらしたという公表された書簡に同意するかどうか尋ねられたとき、O hEigeartaighは、レベルを見ることができる気候変動のようなものではないので、止めるのは難しいと言いましたCO2。 これらは、私たちが自信を持って見ることができる傾向ではなく議論です。 しかし、AIは、安全性と規制が窓の外に投げ出されるような軍拡競争の質を引き受けてはならないと強調した。
リチャーズは、AIが起こり得る害にあまりにも多くの焦点を当てるのは間違いだと言う、やや反対の見解を取った。 AIの開発を一時停止するのではなく、彼は、「我々の敵は前進し続けるだろうし、今のところ他の人が先に進まないことが重要です」と、ガードレールとともにイノベーションが起こることを許されるべきだと述べた。
議論の反対側には、Angelika Sharygina、Techfugees Ambassador、Political Researcherがいる。 アフガニスタンとウクライナの子孫では、家族が両方の紛争に巻き込まれ、彼女の見解は、AIの誤った情報が戦争時の避難場所に関する誤った情報を例として挙げて、安全を欠き、命を失わせかねないというものだった。
AIの背後にあるテクノロジー企業への信頼はあるか?
興味深いことに、シャリージーナは、AIを開発しているテクノロジー企業を信頼しているかどうかについて、聴衆とストロー投票を行いました。 片手が上がらなかった。 彼女は、“権力の蓄積が少数のハイテク企業の手中にあるとき、我々はひどい結果を見る”と、群衆から拍手を受けた。
AIとその他のテクノロジーが職場でのDE&Iの推進にどのように役立っているかという題名の火辺で、inclusioの創設者兼CEOであるSandra Healyは、同様のチューニングに従っています: \"OpenAIは、あなたがそのデータに入り、そのデータをテストすることができず、バイアスが組み込まれています。
日立ヴァンタラのチーフダイバーシティ&インクルージョンオフィサー、パネリストのクレア・トーマスが、なぜこれが問題なのかを説明しました。 ChatGPTはインターネットからデータを受け取っているので、偏った言語と人間の仮定がその出力に表示されています。 彼女は、外科医を“彼”、受付係を“彼女”と呼ぶChatGPTの例を挙げた。
AIはモデルに投入された判断を使っている。 これは、バイアスをより良くする代わりに、バイアスを悪化させる可能性がある、とトーマスは結論付けた。