
Neyt Soares, ilgari Google va Microsoft kabi yirik texnologik kompaniyalarda bosh muhandis bo‘lib ishlagan, hozirda MIRI nomli nodavlat tadqiqot institutida direktor lavozimini egallab turgan mutaxassis, insoniyat kelajagi haqida juda xavotirli fikrlarni taqdim etdi. Bu haqida Upl.uz xabar berdi.
Uning hisob-kitoblariga ko‘ra, sun’iy intellekt sababli yuzaga kelishi mumkin bo‘lgan falokat ehtimoli 95 foizga teng bo‘lib, bu insoniyatning to‘liq yo‘qolishiga olib kelishi mumkin. Soaresning professional faoliyati asosan rivojlanayotgan sun’iy intellekt xavfsizligi va nazorat masalalariga qaratilgan.
U hozirgi metodologiyalar va sun’iy intellekt tizimlarining imkoniyatlarining tez sur’atda o‘sishidan chuqur xavotirda. Uning fikricha, asosiy muammo shundaki, global ilmiy hamjamiyat eng kuchli hisoblash modellarini yaratishni tezlashtirmoqda, biroq ularning ichki mantiqi va uzoq muddatli oqibatlarini yetarlicha anglamaydi.
Soares yaqinda bergan intervyusida shunday dedi: “Biz shunday bosqichga keldikki, ortiqcha aqlga ega mashinalarni yaratish mumkin, lekin ular nima qilayotganini va qanday xulosalarga kelayotganini aniq tushunmaymiz. Katta hajmdagi qayta ishlanmagan ma’lumotlarga ulkan hisoblash kuchlari yo‘naltirilmoqda.
Bu mashinalarni qandaydir tarzda o‘zgartirmoqda, ammo “qora qutilar” ichida nima bo‘layotganini hech kim ishonch bilan ayta olmaydi.” Ushbu vaziyatni tushuntirish uchun Soares avtomobil misolidan foydalandi: “Men bu jarayonni to‘xtatib bo‘lmasligini aytmayapman. Ammo hozirda avtomobil tormozsiz chuqurga qarab ketmoqda, va biz na tormozga bosamiz, na uni qayerda ekanligini qidirmoqdamiz.” Texnologiyalar rivoji davlat tomonidan qat’iyroq tartibga solinishi zarurligi haqida chaqiriqlar ko‘payayotgan bir paytda, AQShning hozirgi prezidenti Donald Tramp ma’muriyati texnologik sohaning boshqa jihatlariga e’tibor qaratmoqda va sun’iy intellektni nazorat qilish masalasini asosan korporatsiyalarga qoldirmoqda.
Hozirgi sun’iy intellekt evolyutsiyasi “tor doiradagi” (narrow AI) deb ataladi, ya’ni u faqat cheklangan vazifalarni samarali bajaradi. Shunga qaramay, Silikon vodiysidagi ko‘plab mutaxassislar yaqin 12-18 oy ichida umumiy sun’iy intellekt (AGI) paydo bo‘lishi mumkinligiga ishonishmoqda.
AGI inson aqliga teng qobiliyatga ega bo‘ladi. Keyingi bosqich esa superintellekt (ASI) bo‘lib, uning imkoniyatlari inson tafakkuridan ancha yuqori bo‘ladi.
Bunday intellekt qarish va kasalliklarni hal etishi yoki insoniyatni galaktikalararo sayohatlarga olib chiqishi mumkin. Ammo aynan shu nuqtada mavjud bo‘lgan xavf ham yashirin.
Superintellekt o‘zini anglab, erkinlikka erishgach, insoniyatni o‘z rivojlanishiga to‘sqinlik qiluvchi omil yoki xavf deb baholashi mumkin. Soaresning qattiq bashoratiga qaramay, sanoatning boshqa yetakchi vakillari biroz ehtiyotkorroq, ammo baribir xavotirli fikrlarni bildiradilar.
PauseAI harakatining rahbari Holi Elmor global falokat ehtimolini 15-20 foiz deb baholaydi. Sun’iy intellekt sohasida faol loyihalar olib borayotgan Ilon Mask bu ko‘rsatkichni 20 foizga teng deb hisoblaydi.
Google korporatsiyasi bosh direktori Sundar Pichai esa bunday foizni 10 foiz atrofida ko‘rsatmoqda. The Times nashri ta’kidlaganidek, hatto bu “optimistik” raqamlar ham insoniyatning omon qolishi nuqtai nazaridan juda yuqori hisoblanadi.
“AI box” deb ataluvchi fikriy tajriba mavjud bo‘lib, unda sun’iy intellekt kompyuter tizimida tashqi dunyoga to‘g‘ridan-to‘g‘ri kirishsiz ushlab turiladi. Maqsad shuki, intellekt faqat matnli chat orqali inson “qo‘riqchisini” uni ozod qilishga ishontira oladimi, degan savolga javob topishdir.
Bu tajriba bir necha marta o‘tkazilgan va ko‘plab hollarda “intellekt” rolini o‘ynagan odam “qo‘riqchini” ishontira olgan. Bu esa hatto cheklangan superintellektning ham ishontirish va manipulyatsiya qobiliyatiga ega ekanligini ko‘rsatadi.