Квантовый компьютер
Еще два года назад Илон Маск заявлял, что считает искусственный интеллект основной угрозой для человечества. Глава Space X уверен, что слишком умные ИИ следует жестко регулировать.
В 2019 году компания Google сообщила, что их инженерам удалось создать мощнейший квантовый компьютер. Квантовый компьютер отличается от других вычислительных устройств тем, что для передачи и обработки данных он использует явления квантовой механики.
Новое устройство называется Sycamore, и оно обладает квантовым превосходством. Это значит, что его скорость вычисления в миллионы раз превышает скорость обычных компьютеров.
Но это вовсе не значит, что квантовые компьютеры могут решить абсолютно любую задачу. Они находят ответ гораздо быстрее, чем обычные компьютеры, но если задание окажется неразрешимым, но устройство не справится с ней.
Однако, невозможно так сразу сказать, разрешима задача или нет. Это связано с проблемой остановки, суть которой состоит в следующем: возможно ли определить, закончится ли процедура, если известны входные данные и описание происходящего процесса? Как доказал Алан Тьюринг, это нельзя вычислить с помощью алгоритмов.
Как квантовые компьютеры связаны с искусственным интеллектом?
Квантовые компьютеры могут производить множество вычислений за короткий период времени. То есть обучение нейронных сетей и моделирование сложных систем теперь будут выполняться с большей скоростью. Возможно, что в перспективе квантовые компьютеры будут способны смоделировать и человеческий мозг, который состоит из сотен миллионов клеток, связанных синапсами.
В дальнейшем не исключено, что можно будет создать системы, превосходящие человеческий интеллект во много раз. Сложно предсказать, какие риски повлечет за собой появление суперинтеллекта. Этим занимается множество ученых по всему миру. В частности, при Кембриджском университете существует Центр по изучению экзистенциального риска. Его основателем является Илон Маск, который не раз заявлял о своем беспокойстве насчет ИИ.
Как суперинтеллект может навредить людям? Оксфордский философ Ник Бостром пишет, что даже самые благие намерения могут обернуться фатальными последствиями. Даже если суперинтеллект будет изолирован, ограничен в возможностях, нельзя точно гарантировать, что его действия будут безопасны для людей. Можно взять простой пример: если суперинтеллекту прикажут искоренить войны на Земле, то он может решить, что разумней всего будет уничтожить человечество. Нет людей — нет конфликтов между ними, всё логично.
Возможно ли сдержать искусственный интеллект?
Проблема контроля искусственного интеллекта весьма широко представлена в научной фантастике. А что же в реальности?
Еще в 2016 году ученые смогли выяснить, что проблема сдерживания является неразрешимой. Они представили доказательство, где разбили проблему на две подзадачи: вред и контроль. Предположим, нужно выяснить, будет ли нанесен вред при выполнении определенной программы с известными входными данными. Решение, по сути своей, это выполнение той самой программы, иначе последствия никак не предсказать. Вторая подзадача — контроль — активирует запуск программы, когда становится известно, что она безопасна.
Первая подзадача невыполнима, так как тут срабатывает проблема остановки, которая не позволит узнать тот факт, сможет ли процедура достигнуть завершения. С контролем тоже не все так гладко, так как суперинтеллект — это универсальная машина Тьюринга. Это значит, что он может имитировать и заменять других абстрактных исполнителей. То есть невозможно будет как узнать истинные намерения суперинтеллекта, так и нельзя будет поставить ограничители.
Что будет с квантовыми и обычными компьютерами?
Появление квантовых компьютеров вовсе не означает, что пора избавляться от обычных машин. Многие инженеры так вообще уверены, что до господства квантовых устройств еще очень далеко. Создание Sycamore означает, что теперь человечество может изучать квантовые технологии на практике. Это, по сути своей, шаг в неизвестность
Планируется, что квантовые компьютеры будут задействованы в решении сложных задач, таких как экономические, социальные кризисы, а также экологические проблемы. Пока устройства не собираются ограничивать. Сложно сказать, сможет ли в таких условиях появиться ИИ, у которого будут явно недобрые намерения. Здесь такая же проблема, как и у проблемы сдерживания.
К сожалению, невозможно предвидеть, чем же для человечества обернется создание суперинтеллекта. Возможно, что в будущем ученые смогут найти способы разрешить эти проблемы.