เมื่อพิจารณาถึงความก้าวหน้าล่าสุดในสาขา AI นี่จึงเป็นหัวข้อที่สำคัญที่สุดในงานประชุม Dublin Tech Summit ในปีนี้อย่างไม่น่าแปลกใจ
การเพิ่มรสชาติให้กับช่วงการพูดเป็นข้อความที่น่าตกใจที่ออกโดยนักวิทยาศาสตร์ 350 AI และ CEO ด้านเทคโนโลยีที่ประกาศว่า AI เป็น “ภัยคุกคามในระดับการสูญพันธุ์” วัตถุประสงค์ของจดหมายฉบับนี้คือการกระตุ้นผู้กําหนดนโยบายให้เข้าถึงเทคโนโลยีในขณะที่พวกเขาเผชิญกับวิกฤตสภาพภูมิอากาศและอาวุธนิวเคลียร์ กระตุ้นให้เกิดการถกเถียงในหมู่ผู้พูดเหตุการณ์ ดร. Patricia Scanlon ทูต AI คนแรกของไอร์แลนด์และผู้ก่อตั้ง Soapbox Labs ได้สะท้อนความรู้สึกที่เป็นข้อควรระวังนี้ และเตือนว่า AI เป็น “ไม่ใช่เครื่องมือที่แย่และไม่ใช่เครื่องมือเพิ่มประสิทธิภาพ นวัตกรรมของ AI จะยังคงดําเนินต่อไป เศรษฐกิจโลกและทุกอุตสาหกรรมจะได้รับผลกระทบ”
ChatGPT ได้นํา AI มาสู่จิตสํานึกของสาธารณะ
เมื่อย้อนกลับไปที่จุดเริ่มต้นของความหลงใหลใน AI ในปัจจุบันของเรา Scanlon ชี้ให้เห็นว่าเมื่อปีที่แล้ว โลกไม่ได้พูดถึง AI ที่สร้างเสริมพลัง แต่ตอนนี้เรามีเครื่องมือ: ChatGPT
สแกนลอนอธิบายว่า ChatGPT เป็นที่รู้จักกันในชื่อ “ปัญญาประดิษฐ์ที่แคบหรืออ่อนแอ” และขั้นตอนต่อไปของวิวัฒนาการนี้คือ AGI (ปัญญาประดิษฐ์ทั่วไป) หรือ “ปัญญาประดิษฐ์ที่แข็งแกร่ง” ก่อน ChatGPT คาดว่า AGI จะเกิดขึ้นใน30หรือ40หลายปี ตอนนี้ Scanlon กล่าวว่าสังคมต้องเริ่มเตรียมตัวเพราะมันอาจมาเร็วกว่าที่คิดในตอนแรก
ดร. Ben Goertzel CEOและผู้ก่อตั้ง SingularityNET ในการพูดคุยของเขาแบบจําลองภาษาขนาดใหญ่: เกิดอะไรขึ้นต่อไป? กล่าวว่ามันเป็นไปได้สูงที่ AGI จะปรากฏตัวในสามถึงเจ็ดปี จาก ChatGPT นั้น Goertzel ได้เน้นย้ําถึงข้อบกพร่องต่าง ๆ ของเทคโนโลยี “ChatGPT ไม่สามารถเขียนเอกสารวิทยาศาสตร์ได้ มันสามารถเขียนสิ่งที่ดูเหมือนกระดาษวิทยาศาสตร์ แต่มันจะเป็นการตีเกลียวบางสิ่งบางอย่างในข้อมูลการฝึกอบรม ChatGPT สามารถเขียนบทกวีในประเภท สไตล์ หรือภาษาใดก็ได้ แต่เป็นกวีธรรมดา”
การหยุดชะงักจะเป็นไปทั่วโลก
Goertzel สรุปว่า ChatGPT ขาดเหตุผลและความคิดสร้างสรรค์ และไม่สามารถกรองแนวคิดนอกเหนือจากข้อมูลการฝึกอบรมได้ ถึงกระนั้นก็ตาม เขากล่าวว่า AI แม้จะไม่มี AGI ก็ยังสามารถทํางานของมนุษย์ได้เป็น50-70เปอร์เซ็นต์ ในทํานองเดียวกัน สแกนลอนได้กล่าวหาถึงข้อเสียของ AI โดยกล่าวว่า “งานจะสูญหาย มันเกิดขึ้นในทุกการปฏิวัติ”
Mark JordanCEOที่บริหารของ Skillnet Ireland และ Tracey Keogh ผู้ร่วมก่อตั้ง Grow Remote ได้หารือกันถึงงานใดที่อาจเป็นภัยคุกคามต่อ AI มากที่สุด Jordan ระบุว่าบทบาทระดับเริ่มต้นตกอยู่ในอันตราย โดยระบุ: “ฟังก์ชันที่ต้องพบปะลูกค้าจะถูกแทนที่ด้วยแชทบอทขั้นสูง การหยุดชะงักนี้จะเกิดขึ้นทั่วโลก และเราจะเห็นมากขึ้นเรื่อย ๆ เมื่อแชทบอทเหล่านี้มีความก้าวหน้ามากขึ้น”
Jordan กล่าวว่าพนักงานควรคิดเกี่ยวกับความสามารถและทักษะหลักที่จะช่วยให้พวกเขาสามารถแข่งขันกับงานใหม่ได้
“งานอาจเปลี่ยนแปลงได้ แต่งานเหล่านั้นจะยังคงอยู่ที่นั่น”
การอภิปรายในคณะที่มีชื่อว่า Algorithms Against Humanity ยังกล่าวถึงแนวโน้มการสูญเสียงาน Sean O hEigeartaigh ผู้อํานวยการฝ่ายปัญญาประดิษฐ์: โครงการอนาคตและความรับผิดชอบที่มหาวิทยาลัยเคมบริดจ์ มีความกังวลเกี่ยวกับผลกระทบทางสังคมที่การสูญเสียงานจะมีต่อมนุษยชาติ
บทบาทที่เขาระบุรวมถึงงานนักวิเคราะห์ดิจิทัล ศิลปินกราฟิก และตัวแทนบริการลูกค้า ในตอนหลัง เขาตั้งข้อสังเกตว่าผู้คนในประเทศกําลังพัฒนากําลังดึงครอบครัวของตนออกจากกับดักความยากจนด้วยงานเหล่านี้ แต่ตําแหน่งดังกล่าวน่าจะหายไป “ผู้คนที่ทํางานเดียวกันมานาน20หลายปีจะไม่ได้เป็นสตาร์ทอัพด้านเทคโนโลยีในวันถัดไป” เขากล่าวสรุป
Michael Richards ผู้อํานวยการฝ่ายนโยบายที่หอการค้าสหรัฐอเมริกา ได้มองในแง่ดีมากขึ้นเกี่ยวกับการสูญเสียงานที่จะเกิดขึ้น โดยใช้ตัวอย่างของคนขับรถม้าและรถขนส่งที่กลายเป็นคนขับรถแท็กซี่เมื่อรถยนต์ถูกประดิษฐ์ขึ้น "งานอาจเปลี่ยนไป แต่งานเหล่านั้นจะยังคงอยู่ที่นั่น" เขากล่าว ที่กล่าวว่า Richards กล่าวว่าระบบการศึกษาต้องเริ่มเตรียมความพร้อมนักเรียนสําหรับงานในอนาคต และธุรกิจต้องเริ่มเตรียมพนักงานของพวกเขาสําหรับการเปลี่ยนแปลงที่จะเกิดขึ้น
การควบคุม AI เพื่อป้องกันอันตราย
กฎระเบียบเป็นหัวข้อหลักอีกหัวข้อหนึ่งในงานในปีนี้ เมื่อถูกถามว่าเขาเห็นด้วยกับจดหมายสาธารณะที่ระบุว่า AI เป็นภัยคุกคามระดับการสูญพันธุ์หรือไม่ O hEigeartaigh กล่าวว่ามันยากที่จะตะปูลงเพราะ “นี่ไม่เหมือนกับการเปลี่ยนแปลงสภาพภูมิอากาศที่เราสามารถมองCO2ในระดับต่างๆ ได้ นี่คือข้อโต้แย้งมากกว่าแนวโน้มที่เราสามารถมองเห็นได้ด้วยความมั่นใจ” อย่างไรก็ตาม เขาเน้นย้ําว่า AI ต้องไม่ใช้คุณภาพการแข่งอาวุธซึ่งความปลอดภัยและกฎระเบียบจะถูกโยนออกไปนอกหน้าต่าง
ริชาร์ดมีมุมมองที่ค่อนข้างตรงกันข้ามที่บอกว่ามันเป็นความผิดพลาดที่จะมุ่งเน้นไปที่อันตรายที่ปัญญาประดิษฐ์สามารถทําได้มากเกินไป แทนที่จะหยุดการพัฒนา AI เขากล่าวว่าควรปล่อยให้นวัตกรรมเกิดขึ้นควบคู่ไปกับการ์ดเรล: “ฝ่ายตรงข้ามของเราใน [สหรัฐอเมริกา] จะยังคงเดินหน้าต่อไป และสิ่งสําคัญในตอนนี้คือคนอื่น ๆ ไม่ได้ก้าวไปข้างหน้าในเรื่องนี้” เขากล่าว
อยู่ฝั่งตรงข้ามของข้อโต้แย้งอย่างมั่นใจคือ Angelika Sharygina เอกอัครราชทูต Techfugees และนักวิจัยทางการเมือง จากการที่อัฟกานและยูเครนล่มสลายไปโดยมีสมาชิกในครอบครัวติดอยู่ในความขัดแย้งทั้งสองทาง มุมมองของเธอคือข้อมูลที่ผิดพลาดจาก AI อาจนําไปสู่ความไม่มั่นคงและการสูญเสียชีวิต โดยอ้างถึงข้อมูลที่ไม่ถูกต้องเกี่ยวกับจุดอพยพในช่วงเวลาของสงครามเป็นตัวอย่าง
มีความไว้วางใจจากสาธารณะในบริษัทเทคโนโลยีที่อยู่เบื้องหลัง AI หรือไม่
น่าสนใจมากที่ Sharygina ทําการสํารวจความคิดเห็นกับผู้ชมว่าพวกเขาเชื่อถือบริษัทเทคโนโลยีที่พัฒนา AI หรือไม่ ไม่ใช่มือเดียวที่เพิ่มขึ้น เธอกล่าวต่อว่า "เมื่อการสะสมของพลังงานอยู่ในมือของบริษัทเทคโนโลยีเพียงไม่กี่แห่งเท่านั้น เราจะเห็นผลที่ตามมาที่แย่มาก" ซึ่งเธอได้รับคําปรบมือจากฝูงชน
ในฝ่ายดับเพลิงที่มีชื่อว่า AI และเทคโนโลยีอื่น ๆ ช่วยยกระดับ DE&I ในสถานที่ทํางานได้อย่างไร Sandra Healy ผู้ก่อตั้งและ CEO ของ Inclusio ปฏิบัติตามเพลงที่คล้ายกัน: “OpenAI ไม่เปิดเพราะคุณไม่สามารถเข้าไปทดสอบข้อมูลได้ และอคติก็ถูกสร้างขึ้นมาในนั้น”
Claire Thomas ประธานเจ้าหน้าที่ฝ่ายความหลากหลายและการยอมรับความแตกต่างที่ฮิตาชิ แวนทารา ผู้ร่วมอภิปราย อธิบายว่าทําไมเรื่องนี้ถึงเป็นปัญหา เนื่องจาก ChatGPT กําลังถูกป้อนข้อมูลจากอินเทอร์เน็ต ภาษาที่มีอคติและสมมติฐานของมนุษย์จึงปรากฏอยู่ในผลลัพธ์ เธออ้างถึงตัวอย่างของ ChatGPT ที่เรียกศัลยแพทย์ว่า “เขา” และพนักงานต้อนรับว่า “เธอ”
“AI กําลังใช้การตัดสินที่ได้ทําในแบบจําลอง สิ่งนี้อาจทําให้อคติแย่ลงแทนที่จะทําให้ดีขึ้น” Thomas กล่าวสรุป