Название | Форма жизни № 4. Как остаться человеком в эпоху расцвета искусственного интеллекта |
---|---|
Автор произведения | Евгений Черешнев |
Жанр | Публицистика: прочее |
Серия | |
Издательство | Публицистика: прочее |
Год выпуска | 2022 |
isbn | 9785961475296 |
Современный ИИ, безусловно, несовершенен с точки зрения человеческой нервной системы, но, в отличие от нас, срок годности машинного интеллекта неограничен. Рано или поздно при правильном обучении (прогрессирующая методика, не статика) и усовершенствовании технической базы, а конкретно парадигм программирования, квантовых компьютеров, серверов, способных обслуживать многоуровневые нейронные сети без расходования энергии в масштабах небольшой страны, как это делают Google, Apple, Facebook, IBM, Amazon сегодня, машины нас догонят. Так же, как нас догоняют собственные дети, а иногда (как, например, в случае с Эйнштейном и Ньютоном) еще и обгоняют. И произойти это может совершенно обыденно и в то же время неожиданно для человека, как в рассказе Клиффорда Саймака «Театр теней»[6].
Наконец, третья проблема противников возможности AGI, считающих этот тип ИИ невозможным, а саму мысль о нем абсурдной, в том, что в научном сообществе есть группа авторитетных экспертов с полярным мнением. То есть проблема скептиков и критиков AGI в том, что, какими бы умными они ни были, им придется считаться с не менее умными оппонентами. Значимость противодействия в научном сообществе, согласующегося с экспериментальными данными (пример: победа ИИ над человеком при игре в го, как и способность отличать кошек и собак на фото, считалась невозможной, однако практика показывает, что это не так), не стоит недооценивать, ибо отсутствие единства по вопросу безопасности технологии как минимум косвенно говорит о ее небезопасности. Еще на этапе подготовки к публикации работа Джона Серла вызвала критику со стороны 27 исследователей, чьи комментарии были также приведены в том же номере журнала. Речь не о постах в соцсетях, а о серьезных и аргументированных возражениях представителей научного сообщества. Сейчас таких работ более 950. То есть постулат «умные машины невозможны» разделяют не все эксперты. Возможность развития ИИ до уровня AGI и далее, до уровня ASI, полагал вполне вероятной, например, Стивен Хокинг, многократно предупреждавший об опасности и реальности ASI, а в интервью BBC в 2014 году он и вовсе сказал, что «появление полноценного искусственного интеллекта может стать концом человеческой расы»[7]. Илон Маск много лет говорил об опасностях AGI и ASI, несмотря на регулярный троллинг в свой адрес. В интервью Джо Рогану он хорошо разъяснил свою позицию: «Мы просто загрузчик для ИИ – мы прокладываем ему дорогу… если принять весь интеллект за 100 %, сейчас количество искусственного интеллекта незначительно по сравнению с человеческим, но доля искусственного интеллекта растет. Скоро в общем объеме, мы, люди, будем составлять крайне незначительную часть»[8]. Я отношу себя к этой группе и разделяю опасения и Хокинга, и Маска, а сам факт появления ASI считаю исключительно вопросом времени – история полна примеров того, как жестоко ошибались даже великие люди в
6
Саймак К. Театр теней. – М.: Эксмо, 2008.
7
https://www.bbc.com/russian/science/2014/12/141202_hawking_ai_danger.
8