Доцент, кандидат технических наук Сергей Хотин в своей статье рассказал об опасностях тотального внедрения искусственного интеллекта. Ведь это в кино Терминатор добрый. А о том, что может случиться на самом деле – читайте ниже…

Опасности тотального  внедрения искусственного интеллекта и роботизированных транспортных систем. Способы их профилактики

В последнее десятилетие ведутся многочисленные научные разработки по созданию и внедрению в массовое производство различных систем цифрового искусственного интеллекта и беспилотных роботизированных транспортных систем, так называемых дронов.

Делается это для того, чтобы заменить труд человека в различных сферах экономики. Мировой бизнес в этом крайне заинтересован, поскольку стоимость таких систем становится дешевле стоимости человеческого труда. Кроме того, за роботов не надо оплачивать налоги и больничные листы, отчислять деньги в пенсионный фонд и т.д. У них отсутствуют какие-либо юридические права, также исчезают проблемы межличностных отношений.

Вышесказанное приведёт к тому, что работодатель будет отдавать явное предпочтение различным кибертехничеким системам, а не людям. Возникает реальная опасность того, что дальнейшее развитие кибертехнических систем приведёт к их полному доминированию во всех сферах жизнедеятельности. Поэтому, ряд специалистов считает «искусственный интеллект» угрозой человечеству, утверждая, что «разработка полноценного искусственного интеллекта может привести к концу человеческой расы».

Цель данной статьи дать качественную оценку различным опасностям, которые подстерегают человечество при массовом использовании кибертехнических систем на основе искусственного интеллекта и предложить способы и мероприятия по их профилактике.

Цифровой искусственный интеллект это техническая или программная система, способная решать задачи, традиционно считающиеся творческими, принадлежащие конкретной предметной области, знания о которой хранятся в памяти такой системы[1].

Внутри понятия «искусственный интеллект» (ИИ) проведена важная граница, отличающая прикладной или, как ещё говорят, «слабый» искусственный интеллект, предназначенный для решения какой-либо одной интеллектуальной задачи или небольшого их множества, от гипотетического «сильного» ИИ. Его также называют универсальным искусственным интеллектом[2].

Такая система, когда она будет создана, будет способна решать неограниченно широкий круг интеллектуальных задач, подобно человеческому разуму. Именно полноценный искусственный интеллекта может представлять реальную угрозу для человеческого общества[1].

Выделяют 4 основных направления угроз ИИ.

Первое – искусственный интеллект поможет устраивать хакерские атаки.

Второе – недобросовестное применение искусственного интеллекта в социально-политической сфере. С его помощью власти создадут более мощные системы наблюдения за инакомыслящими.

Третье – возможность атак на физические объекты, с помощью беспилотников или других автоматизированных боевых комплексов.

Четвёртое – массовая безработица. Чем быстрее развиваются технологии искусственного интеллекта, тем больше риск для людей остаться без работы из за ИИ. В будущем машины превзойдут человека почти в любом деле. Это приведёт к тому, что более 50% жителей Земли станут безработными.

Распространение технологии ИИ может привести к росту и появлению новых форм киберпреступности, манипулированию общественным мнением и повреждениям физической инфраструктуры уже в течение ближайших лет.

В перспективе главная опасность ИИ заключается в том, что кибертехнические системы на его основе объединённые в глобальную сеть, могут выйти из под контроля человека и взять власть над транспортными, телекоммуникационными, энергетическими, производственными и иными техническими системами в свои руки[3].

Беспилотные роботизированные транспортные устройства (дроны) также могут представлять серьёзную опасность.

Их можно разделить на два типа.

  1. Дроны, управляемые оператором дистанционно.
  2. Дроны, действующие полностью автономно по определённому заданию и оснащённые автопилотом на основе ИИ, при отсутствии внутри них системы ручного управления.

Если первые могут представлять опасность только в случае перехвата управления ими от оператора злоумышленником, то вторые могут представляют опасность сами по себе.

В этом случае следует выделить следующие опасности:

— отказ бортового компьютера прочих внутренних систем и устройств, что приведёт к их остановке либо бесконтрольному перемещению, с последующей аварией или катастрофой.

— отказ ИИ, управляющего дроном, следовать заданию и самовольное изменение маршрута движения.

— блокировка дверей в аварийной ситуации, что лишит возможности пассажиров покинуть салон дрона.

— проблемы функционирования в нестандартных экстремальных и чрезвычайных ситуациях.

— проблемы взаимодействия с транспортными средствами, управляемыми людьми, на оживлённых автомобильных, воздушных и морских трассах, а также в портах, аэропортах, паркингах и т.д.

Чтобы избежать вышеописанных опасностей, связанных с массовым внедрением искусственного интеллекта и беспилотных роботизированных транспортных систем, следует предусмотреть ряд мероприятий.

  1. Временный отказ от создания систем на базе «сильного» ИИ либо ограничение функционального потенциала ИИ определённым кругом прикладных задач, взаимосвязанных между собой.
  2. Непрерывный контроль за работой ИИ с помощью специальных антивирусных программ, которые способны автоматически блокировать любые действия, выходящие за рамки его функционального назначения.
  3. Возможность постоянного или периодического операторского контроля и физического отключения технических систем, управляемых ИИ, в ручном режиме, в том числе и дистанционно.
  4. В программное обеспечение искусственного интеллекта должно быть заложено свойство беспрекословного подчинения командам человека.
  5. Отказ от создания глобальных сетевых комплексов на базе ИИ, способных монопольно управлять целыми секторами производственно-технического комплекса в планетарном и национальном масштабах.
  6. Установка независимых от ИИ резервных операторских систем управления, на которые будет возможно оперативно переключать производственно-технологические и транспортные системы, управляемые ИИ.

Нейтрализация потенциальных угроз, исходящих от полностью автономных роботизированных транспортных средств, может быть осуществлена с помощью следующих мероприятий.

  1. Отказ от пассажирских перевозок полностью автономными беспилотниками в ближайшее время, что позволит исключить вероятность человеческих жертв.
  2. Дублирование основных бортовых систем дронов.
  3. Сохранение возможности ручного (пилотного) или дистанционного управления беспилотником при возникновении нештатной ситуации.
  4. Эксплуатация беспилотных транспортных средств только на определённых фиксированных маршрутах при условии их перемещения исключительно по выделенным для них специальным трассам.

Наиболее перспективным способом решения всех вышеописанных проблем станет разработка и создание синтетических систем, то есть  объединение человека и машины в единый организм (система «человек – кибертехническое устройство). В этом случае искусственным интеллектом будущего будет усовершенствованный человеческий интеллект с расширенными возможностями, что гарантирует надёжный контроль человека над любыми кибертехническими системами. Это потребует создание искусственного кибертехнического тела с переносом в него психофизиологической матрицы человека[1].

Матрица является точной копией индивидуального человеческого сознания в электронно-цифровом виде и будет записана на новый искусственный носитель. Возможно, развитие компьютерной техники уже в ближайшие десятилетия позволит делать точные интеллектуальные копии личностей конкретных людей – с таким же содержанием памяти, такой же скоростью мышления, таким же типом эмоциональной реакции (перенесение всей мозговой информации, при сохранении самосознания).

Такой способ снимет угрозу тотальной безработицы и одновременно даст возможность управления человеком внешними кибертехническими устройствами мысленным образом, без привлечения своих конечностей.

Последнее особенно важно в плане обеспечения надёжного контроля над искусственным интеллектом. Человеческий разум на цифровом носителе сможет дистанционно контролировать деятельность ИИ в режиме реального времени и будет постоянно связан с ним информационно. А это, в свою очередь, позволит считывать «мысли» искусственного интеллекта и определять его намерения и планируемые действия. В любой момент в случае попыток злонамеренных действий ИИ человек их сможет заблокировать заранее, частично или полностью отключив его функционирование.

Кроме того, человеческий разум при решении сложных и трудозатратных интеллектуальных задач сможет мысленным командным усилием подключить к своей работе искусственный интеллект и оперативно объединить свои возможности с возможностями последнего. Это позволит человеку значительно повысить свой интеллектуальный потенциал и решать прежде недоступные мыслительные задачи[1].

В этом случае человеческий разум будет объединён в единую глубоко интегрированную систему с одним или несколькими ИИ. Но самое важное будет заключаться в том, что контролировать работу таких сложных кибертехнологических систем будет именно человеческий разум.

Таким образом, внедрение вышеописанного комплекса мероприятий по управлению и контролю за техническими системами на базе иискусственного интеллекта и беспилотными транспортными средствами позволит обеспечить их надёжное и безопасное функционирование.

Объединение человека и машины в единый организм путём создания системы «человек – кибертехническое устройство» обеспечит надёжный контроль и управление над любыми техническими системами мысленным образом в режиме реального времени, значительно увеличив при этом психофизиологические и интеллектуально-творческие возможности человека во всех сферах жизнедеятельности. Созданные при этом технологии найдут полезное применение во многих областях науки и техники.

Литература:

  1. Хотин С.Ю. Интеграция человека с кибертехническими системами путь к безопасности и бессмертию людей – Перша міжнародна науково-технічна конференція «Перспективні технології для забезпечення безпеки життєдіяльності та довголіття людини»: Тези доповідей. — Одеса: ОНМУ, 2018. — С. 13-17.
  2. Пройдаков Э.М. Современное состояние искусственного интеллекта//

Науковедческие исследования. — 2018. — С. 129-152.

  1. Соколова С.Н. Искусственный интеллект и безопасность общества// Вестник Полесского государственного университета. Серия общественных и гуманитарных наук. — 2016. — № 1. — С. 42-47.

Хотин С. Ю., к.т.н., доцент