Tidak mengherankan, mengingat kemajuan terkini di lapangan, kecerdasan buatan menjadi tema utama di Dublin Tech Summit tahun ini.
Menambahkan rasa pada sesi pembicara adalah pernyataan mengkhawatirkan yang dikeluarkan oleh ilmuwan 350 AI dan CEO teknologi yang menyatakan AI sebagai “ancaman tingkat kepunahan.” Surat ini bertujuan untuk mendesak pembuat kebijakan agar menggunakan teknologi tersebut karena akan menimbulkan krisis iklim dan senjata nuklir, yang memicu perdebatan di antara para pembicara acara. Dr. Patricia Scanlon, duta AI pertama di Irlandia dan Pendiri Soapbox Labs, menyuarakan sentimen tindakan pencegahan ini dan memperingatkan bahwa AI “bukan tren dan bukan alat produktivitas. Inovasi AI akan bertahan — ekonomi global dan setiap industri akan terpengaruh.”
ChatGPT telah menghadirkan AI ke dalam kesadaran publik.
Kembali ke asal obsesi AI kami saat ini, Scanlon menunjukkan bahwa setahun yang lalu, dunia bahkan tidak berbicara tentang AI generatif, tetapi sekarang kami memiliki alat: ChatGPT.
Scanlon menjelaskan bahwa ChatGPT dikenal sebagai "AI yang sempit atau lemah," dan langkah berikutnya dari evolusi ini adalah AGI (Artificial General Intelligence) atau "AI yang kuat." Sebelum ChatGPT, AGI diperkirakan muncul pada 30 atau 40 tahun. Sekarang, Scanlon mengatakan masyarakat harus mulai bersiap karena bisa datang lebih cepat dari yang diperkirakan sebelumnya.
Dr. Ben Goertzel ,CEO dan Pendiri SingularityNET, dalam pidatonya, Large Language Models: What Comes Next?, menyatakan bahwa kemungkinan besar AGI akan muncul dalam tiga hingga tujuh tahun ke depan. Dari ChatGPT, Goertzel menyoroti banyak kekurangan teknologi. “ChatGPT tidak dapat menulis makalah sains. Ini dapat menulis sesuatu yang terlihat seperti makalah sains, tetapi akan menjadi rethreading sesuatu dalam data pelatihannya. ChatGPT dapat menulis puisi dalam genre, gaya, atau bahasa apa pun, tetapi itu penyair biasa-biasa saja.”
Gangguan tersebut akan bersifat global.
Goertzel menyimpulkan bahwa ChatGPT tidak memiliki alasan dan kreativitas serta tidak dapat menyaring gagasan di luar data pelatihannya. Meskipun demikian, dia mengatakan bahwa AI, bahkan tanpa AGI, masih dapat melakukan 50-70 persen pekerjaan manusia. Demikian pula, Scanlon mengasah sisi negatif AI, dengan menyatakan, “Akan ada hilangnya pekerjaan. Ini terjadi dalam setiap revolusi.”
Mark Jordan, CEO Skillnet Ireland, dan Tracey Keogh, Rekan Pendiri Grow Remote, membahas pekerjaan mana yang paling terancam oleh AI. Jordan menyatakan bahwa peran tingkat pemula dalam bahaya, dengan menyebutkan: “Fungsi yang berhadapan dengan pelanggan akan digantikan oleh chatbot tingkat lanjut. Gangguan ini akan bersifat global, dan kita akan melihat semakin banyak hal tersebut saat chatbot ini menjadi semakin canggih.”
Jordan mengatakan pekerja harus memikirkan kompetensi inti dan keterampilan mereka yang akan memungkinkan mereka bersaing untuk mendapatkan pekerjaan baru.
“Pekerjaan mungkin berubah, tetapi akan tetap ada.”
Diskusi panel berjudul Algoritme Melawan Kemanusiaan juga membahas kemungkinan kehilangan pekerjaan. Sean O hEigeartaigh, Direktur AI: Futures and Responsibility Program di University of Cambridge, memiliki kekhawatiran besar terkait dampak sosial kehilangan pekerjaan terhadap kemanusiaan.
Peran yang ia tentukan meliputi pekerjaan analis digital, seniman grafis, dan perwakilan layanan pelanggan. Di kemudian hari, dia mencatat bahwa orang-orang di negara berkembang menarik keluarga mereka dari perangkap kemiskinan berkat pekerjaan ini, tetapi posisi tersebut kemungkinan akan menghilang. “Orang-orang yang telah bekerja dengan pekerjaan yang sama selama bertahun-20tahun tidak akan menjadi startup teknologi keesokan harinya,” tutupnya.
Michael Richards, Direktur Kebijakan di Kamar Dagang A.S., mengambil pandangan yang lebih optimis tentang datangnya kehilangan pekerjaan, dengan menggunakan contoh pengemudi kuda dan kereta menjadi pengemudi taksi ketika mobil ditemukan. “Pekerjaan mungkin berubah, tetapi akan tetap ada,” katanya. Meski demikian, Richards memang menyatakan bahwa sistem pendidikan perlu mulai mempersiapkan siswa mereka untuk pekerjaan di masa depan dan bisnis perlu mulai mempersiapkan karyawan mereka untuk perubahan mendatang.
Mengatur AI untuk melindungi dari bahaya
Peraturan adalah tema inti lain pada acara tahun ini. Ketika ditanya apakah dia setuju dengan surat yang dipublikasikan yang menyatakan bahwa AI menimbulkan ancaman tingkat kepunahan, O hEigeartaigh mengatakan sulit untuk menyimpulkan bahwa “ini tidak seperti perubahan iklim di mana kita dapat melihat CO2 tingkatnya. Ini adalah argumen, bukan tren yang dapat kita lihat dengan percaya diri.” Akan tetapi, ia menekankan bahwa AI tidak boleh menggunakan kualitas perlombaan senjata, di mana keselamatan dan regulasi akan dilempar keluar jendela.
Richard mengambil pandangan yang agak berlawanan dengan mengatakan bahwa akan menjadi kesalahan jika terlalu fokus pada bahaya yang dapat dilakukan AI. Alih-alih menjeda pengembangan AI, ia menyatakan bahwa inovasi seharusnya dibiarkan terjadi di samping batas: “Musuh kita [AS] akan terus bergerak maju, dan penting saat ini bahwa orang lain tidak bergerak maju dari ini,” katanya.
Di sisi argumentasi yang berlawanan adalah Angelika Sharygina, Duta Teknologi dan Peneliti Politik. Dari keturunan Afghanistan dan Ukraina, dengan anggota keluarga terjebak dalam kedua konflik, sudut pandangnya adalah bahwa kesalahan informasi AI dapat menyebabkan tidak aman dan hilangnya nyawa, dengan mengutip informasi yang salah tentang titik evakuasi di masa perang sebagai contoh.
Apakah ada kepercayaan publik pada perusahaan teknologi di balik AI?
Menariknya, Sharygina melakukan jajak pendapat sedotan dengan penonton tentang apakah mereka mempercayai perusahaan teknologi yang mengembangkan AI. Tidak ada satu tangan pun yang naik. Ia melanjutkan, “Ketika akumulasi kekuatan hanya berada di tangan beberapa perusahaan teknologi, kami melihat konsekuensi yang mengerikan,” yang kepadanya ia menerima tepuk tangan meriah dari penonton.
Di perapian berjudul, Bagaimana AI dan Teknologi Lain Membantu Memajukan DE&I di Tempat Kerja, Sandra Healy, Pendiri dan CEO inklusi, mengikuti nada yang sama: “OpenAI tidak terbuka karena Anda tidak dapat masuk dan menguji datanya, dan bias dibangun di dalamnya.”
Rekan panelis Claire Thomas , Kepala Pejabat Keragaman dan Inklusi di Hitachi Vantara, menjelaskan alasan masalah ini. Karena ChatGPT diberi makan data dari internet, bahasa yang bias dan asumsi manusia muncul dalam output-nya. Dia mengutip contoh ChatGPT yang menyebut dokter bedah sebagai “dia” dan resepsionis sebagai “dia.”
“AI menggunakan penilaian yang telah dimasukkan ke dalam model. Ini berpotensi memperburuk bias alih-alih menjadikannya lebih baik,” Thomas menyimpulkan.