РАПСИ продолжает серию статей — размышлений на тему того, превратится ли Ai в надежного помощника человека или станет в итоге контролирующей человечество машиной.
Сегодня наиболее известным искусственным интеллектом в мире является нейросеть, разработанная компанией OpenAI, создателем чат-бота Chat GPT (Generative Pre-Trained Transformer). Архитектура трансформера работает по аналогии со словарным подсказчиком T9, который предугадывает следующее слово при наборе текста на телефоне. Подобные подсказчики появились на мобильных устройствах более 15 лет назад. Основное преимущество трансформера заключается в его удобстве, гибкости и способности обрабатывать данные параллельно.
Эта технология впервые была использована в 2018 году для создания чат-бота GPT-1, который не отличался особыми характеристиками. Значительный прогресс произошел в 2019 году с появлением GPT-2. Разработчики применили оригинальный метод обучения, используя текстовые сообщения с популярного онлайн-сервиса Reddit. Всего было собрано более 8 миллионов таких сообщений, объемом свыше 40 Гбайт. Для сравнения, все произведения Шекспира занимают всего 5,5 Мбайт. Если читать одну страницу текста в минуту круглосуточно, то для достижения уровня "образованности" GPT-2 вам потребуется 40 лет. Модель GPT-2 включала более 1,5 миллиарда параметров, что позволило ей генерировать связные тексты, напоминающие человеческие.
Ещё более впечатляющий скачок произошел в 2020 году с созданием GPT-3. Модель этой версии включает уже 175 миллиардов параметров, а для её обучения использовали около 420 Гбайт текстов. Неожиданно для всех GPT-3 начал решать арифметические задачи и выполнять логические рассуждения. Качество и правильность ответов этого чат-бота резко возросли после увеличения числа параметров до определенного уровня, а именно до 13 миллиардов.
Очевидно, что интеллект ChatGPT основывается главным образом на способностях к обработке огромных объемов данных и существенно отличается от естественного человеческого мозга, который функционирует по совершенно другим принципам и не нуждается в таких масштабных тренировках для выполнения аналогичных задач. Эти возможности обеспечиваются использованием специального суперкомпьютера Azure AI, включающего 285 тысяч процессорных ядер и 10 тысяч графических процессоров, с производительностью 30 петафлопс. Можно с уверенностью сказать, что большинство из перечисленных достижений в области искусственного интеллекта непосредственно связано с увеличением производительности суперкомпьютеров. Из этого можно сделать вывод, что большинство достижений в области искусственного интеллекта связано не с повышением уровня «интеллекта» машин, а просто с увеличением их быстродействия и, соответственно, возможностью обработки все больших объемов данных.
Это вызывает вопрос: смогут ли компьютеры когда-нибудь достичь производительности, достаточной для создания аналога человеческого мозга? Теоретически это возможно, поскольку в настоящее время мы понимаем, как работает отдельный нейрон человеческого мозга, как нейроны взаимодействуют друг с другом и как передаются сигналы между ними. Это знание позволяет создать компьютерную модель всего человеческого мозга.
В 2018 году с помощью самого мощного на тот момент суперкомпьютера Sunway Taihulight (КНР) было выполнено моделирование одной секунды активности одного процента человеческого мозга, что заняло около четырех минут машинного времени. Этот суперкомпьютер обладает производительностью примерно 10/17 флопс, содержит 10,5 миллиона процессорных ядер, занимает площадь около 1000 квадратных метров и потребляет около 16 мегаватт электроэнергии.
На основе этих данных можно сделать вывод, что для моделирования активности всего человеческого мозга в реальном времени потребуется суперкомпьютер с производительностью около 10/21 флопс. Экстраполируя текущие тенденции, можно предположить, что такой суперкомпьютер может появиться после 2030 года.
Однако ситуация не так проста. С учётом современных технологий суперкомпьютер с производительностью 10/21 флопс будет занимать объем около 4 миллиона кубических метров, это эквивалентно зданию с основанием 300 на 300 метров и высотой 50 метров, и потреблять около 15 гигаватт электроэнергии, что сопоставимо с тремя Саяно-Шушенскими ГЭС. В то же время, человеческий мозг занимает всего 0,0013 кубических метров и потребляет около 20 ватт!
Считается, что успехи в области искусственного интеллекта в значительной степени обусловлены ростом производительности суперкомпьютеров, что до сих пор поддерживалось эмпирическим законом Мура. Этот закон утверждает, что «количество транзисторов на компьютерном чипе удваивается каждые 24 месяца, а его производительность удваивается каждые 18 месяцев благодаря увеличению числа транзисторов и повышению тактовой частоты».
Однако в последние годы закон Мура начал замедляться, поскольку технологии производства классических кремниевых микросхем достигли своего физического предела. Уже сегодня за рубежом создаются микросхемы с техпроцессом 3 - 5 нанометров, тогда как расстояние между атомами кремния составляет примерно 0,6 нанометра. Это и есть физический предел, который невозможно преодолеть даже теоретически. Чем ближе мы подходим к этому пределу, тем более замедляется действие закона Мура. Еще пример: в процессе обучения Chat GPT суперкомпьютер AZURE AI сжег столько электроэнергии, сколько хватило бы на освещение всего Нью-Йорка в течение трех недель.
Таким образом, можно заключить, что все наши усилия по созданию аналогов человеческого мозга с использованием современных компьютерных технологий ведут в тупик. Мозг функционирует по совершенно иным, пока еще не до конца изученным принципам. Продолжая идти по этому пути, мы лишь отдаляемся от нашей конечной цели — создания компьютерного аналога человеческого мозга. Это обстоятельство подчеркивает необходимость поиска альтернативных подходов к реализации искусственного интеллекта, возможно, на основе новых физических принципов.
Продолжение следует
Андрей Кибернович
Мнение редакции может не совпадать с мнением автора
Стилистика, орфография и пунктуация публикации сохранены