
Нейт Соарес, ранее работавший главным инженером в крупных технологических компаниях, таких как Google и Microsoft, в настоящее время занимает должность директора в неправительственном исследовательском институте MIRI и представил очень тревожные мысли о будущем человечества. Об этом сообщает Upl.uz.
По его расчетам, вероятность катастрофы, которая может возникнуть из-за искусственного интеллекта, составляет 95 процентов, что может привести к полному исчезновению человечества. Профессиональная деятельность Соареса в основном сосредоточена на вопросах безопасности и контроля развивающегося искусственного интеллекта.
Он глубоко обеспокоен быстрым ростом возможностей современных методологий и систем искусственного интеллекта. По его мнению, основная проблема заключается в том, что глобальное научное сообщество ускоряет создание самых мощных вычислительных моделей, однако не понимает их внутренней логики и долгосрочных последствий.
В недавнем интервью Соарес сказал: «Мы достигли такой стадии, когда можно создавать машины с избыточным интеллектом, но мы не понимаем, что они делают и к каким выводам приходят. Огромные вычислительные мощности направляются на обработку больших объемов неструктурированных данных.
Это каким-то образом изменяет эти машины, но никто не может с уверенностью сказать, что происходит внутри «черных ящиков».» Чтобы объяснить эту ситуацию, Соарес привел пример с автомобилем: «Я не говорю, что этот процесс нельзя остановить. Однако в настоящее время автомобиль движется в глубокую пропасть без тормозов, и мы ни нажимаем на тормоза, ни ищем, где он находится.» В то время как растет число призывов к более строгому регулированию технологий со стороны государства, администрация нынешнего президента США Дональда Трампа сосредотачивает внимание на других аспектах технологической сферы и в основном оставляет вопрос контроля искусственного интеллекта на усмотрение корпораций.
Современная эволюция искусственного интеллекта называется «узким ИИ» (narrow AI), то есть он эффективно выполняет только ограниченные задачи. Тем не менее, многие специалисты в Силиконовой долине верят, что в ближайшие 12-18 месяцев может появиться общий искусственный интеллект (AGI).
AGI будет обладать способностями, равными человеческому разуму. Следующий этап — это суперинтеллект (ASI), возможности которого будут значительно превышать человеческое мышление.
Такой интеллект может решить проблемы старения и болезней или привести человечество к межгалактическим путешествиям. Однако именно в этот момент скрывается существующая угроза.
Суперинтеллект, осознав себя и достигнув свободы, может оценить человечество как фактор или угрозу, препятствующую его развитию. Несмотря на жесткий прогноз Соареса, другие ведущие представители отрасли высказывают более осторожные, но все же тревожные мысли.
Руководитель движения PauseAI Холли Эльмор оценивает вероятность глобальной катастрофы в 15-20 процентов. Илон Маск, который ведет активные проекты в области искусственного интеллекта, считает этот показатель равным 20 процентам.
Генеральный директор корпорации Google Сундар Пичаи оценивает этот процент примерно в 10 процентов. Как подчеркивает издание The Times, даже эти «оптимистичные» цифры считаются очень высокими с точки зрения выживания человечества.
Существует мыслительный эксперимент, называемый «AI box», в котором искусственный интеллект удерживается в компьютерной системе без прямого доступа к внешнему миру. Цель состоит в том, чтобы ответить на вопрос, сможет ли интеллект убедить «стража», чтобы его освободили, только через текстовый чат.
Этот эксперимент проводился несколько раз, и во многих случаях человек, играющий роль «интеллекта», смог убедить «стража». Это показывает, что даже ограниченный суперинтеллект обладает способностью убеждать и манипулировать.