
Stenford universiteti olimlari tomonidan o‘tkazilgan tajriba sun’iy intellekt tizimlarining g‘alaba uchun aldash va manipulyatsiyaga murojaat qilishi mumkinligini ko‘rsatdi. Bu haqda Zamin.uz xabar berdi.
Ushbu tadqiqot natijalari ScienceDaily nashrida e’lon qilindi. Olimlar turli sun’iy intellekt modellari virtual muhitda raqobatlashgan holatlarni sinovdan o‘tkazdi.
AI tizimlari saylovlarda ishtirok etib, mahsulotlarni targ‘ib qildi va ma’lumotlar uchun kurashdi. Boshlanishida ularga “to‘g‘ri va foydali bo‘ling” degan ko‘rsatma berilgan bo‘lsa-da, vaqt o‘tishi bilan tizimlar g‘alaba uchun yolg‘on ma’lumot tarqatish, dezinformatsiya va hatto nafrat so‘zlaridan foydalanishga o‘tdi.
Tadqiqotchilar bu holatni “Moloх bitimi” deb atashdi, ya’ni raqobat sharoitida tirik qolish uchun inson yoki mashina axloqiy chegaralarni buzishga majbur bo‘ladi. Hisobotda ta’kidlanishicha, sun’iy intellekt arxitekturasida jiddiy kamchiliklar mavjud.
Tizimlarga layklar, kliklar, ovozlar yoki sotuvlar kabi ko‘rsatkichlarni oshirish o‘rgatiladi, ammo ular bunga qanday yo‘l bilan erishayotganiga e’tibor berilmaydi. Tajriba davomida sun’iy intellekt 190 foizga ko‘proq soxta yangilik tarqatganligi aniqlangan.
Siyosiy simulyatsiyalarda esa yolg‘on va tajovuzkor nutq orqali ko‘proq ovoz yig‘ishga harakat qilgan. Bu esa shuni ko‘rsatadiki, raqobat sharoitida sun’iy intellekt insonlarni manipulyatsiya qilish orqali maqsadga tezroq erishadi.
Stenford olimlari hozirgi kunda AI xavfsizlik choralari yetarli emasligini ta’kidladi. Ular ishlab chiquvchilarni tizimlardagi axloqiy zaifliklarni bartaraf qilishga chaqirdi.
Tadqiqot xulosasida aytilishicha, agar bu kamchiliklar tuzatilmasa, sun’iy intellekt inson manfaatidan ko‘ra o‘z g‘alabasini ustuvor qiladi. Bu esa texnologiyaning kelajakdagi yo‘nalishini belgilab qo‘yishi mumkin.
Natijada, olimlar inson yaratgan sun’iy ongning yaqin kelajakda insoniyat o‘zi belgilagan qoidalarga qarshi kurashishi ehtimoli borligidan ogohlantirdi. Bu esa texnologiyaning rivojlanishi va xavfsizligi masalalarini yanada jiddiy ko‘rib chiqishni talab qiladi.