Доцент, кандидат технических наук Сергей Хотин в своей статье рассказал об опасностях тотального внедрения искусственного интеллекта. Ведь это в кино Терминатор добрый. А о том, что может случиться на самом деле – читайте ниже…
Опасности тотального внедрения искусственного интеллекта и роботизированных транспортных систем. Способы их профилактики
В последнее десятилетие ведутся многочисленные научные разработки по созданию и внедрению в массовое производство различных систем цифрового искусственного интеллекта и беспилотных роботизированных транспортных систем, так называемых дронов.
Делается это для того, чтобы заменить труд человека в различных сферах экономики. Мировой бизнес в этом крайне заинтересован, поскольку стоимость таких систем становится дешевле стоимости человеческого труда. Кроме того, за роботов не надо оплачивать налоги и больничные листы, отчислять деньги в пенсионный фонд и т.д. У них отсутствуют какие-либо юридические права, также исчезают проблемы межличностных отношений.
Вышесказанное приведёт к тому, что работодатель будет отдавать явное предпочтение различным кибертехничеким системам, а не людям. Возникает реальная опасность того, что дальнейшее развитие кибертехнических систем приведёт к их полному доминированию во всех сферах жизнедеятельности. Поэтому, ряд специалистов считает «искусственный интеллект» угрозой человечеству, утверждая, что «разработка полноценного искусственного интеллекта может привести к концу человеческой расы».
Цель данной статьи дать качественную оценку различным опасностям, которые подстерегают человечество при массовом использовании кибертехнических систем на основе искусственного интеллекта и предложить способы и мероприятия по их профилактике.
Цифровой искусственный интеллект это техническая или программная система, способная решать задачи, традиционно считающиеся творческими, принадлежащие конкретной предметной области, знания о которой хранятся в памяти такой системы[1].
Внутри понятия «искусственный интеллект» (ИИ) проведена важная граница, отличающая прикладной или, как ещё говорят, «слабый» искусственный интеллект, предназначенный для решения какой-либо одной интеллектуальной задачи или небольшого их множества, от гипотетического «сильного» ИИ. Его также называют универсальным искусственным интеллектом[2].
Такая система, когда она будет создана, будет способна решать неограниченно широкий круг интеллектуальных задач, подобно человеческому разуму. Именно полноценный искусственный интеллекта может представлять реальную угрозу для человеческого общества[1].
Выделяют 4 основных направления угроз ИИ.
Первое – искусственный интеллект поможет устраивать хакерские атаки.
Второе – недобросовестное применение искусственного интеллекта в социально-политической сфере. С его помощью власти создадут более мощные системы наблюдения за инакомыслящими.
Третье – возможность атак на физические объекты, с помощью беспилотников или других автоматизированных боевых комплексов.
Четвёртое – массовая безработица. Чем быстрее развиваются технологии искусственного интеллекта, тем больше риск для людей остаться без работы из за ИИ. В будущем машины превзойдут человека почти в любом деле. Это приведёт к тому, что более 50% жителей Земли станут безработными.
Распространение технологии ИИ может привести к росту и появлению новых форм киберпреступности, манипулированию общественным мнением и повреждениям физической инфраструктуры уже в течение ближайших лет.
В перспективе главная опасность ИИ заключается в том, что кибертехнические системы на его основе объединённые в глобальную сеть, могут выйти из под контроля человека и взять власть над транспортными, телекоммуникационными, энергетическими, производственными и иными техническими системами в свои руки[3].
Беспилотные роботизированные транспортные устройства (дроны) также могут представлять серьёзную опасность.
Их можно разделить на два типа.
- Дроны, управляемые оператором дистанционно.
- Дроны, действующие полностью автономно по определённому заданию и оснащённые автопилотом на основе ИИ, при отсутствии внутри них системы ручного управления.
Если первые могут представлять опасность только в случае перехвата управления ими от оператора злоумышленником, то вторые могут представляют опасность сами по себе.
В этом случае следует выделить следующие опасности:
— отказ бортового компьютера прочих внутренних систем и устройств, что приведёт к их остановке либо бесконтрольному перемещению, с последующей аварией или катастрофой.
— отказ ИИ, управляющего дроном, следовать заданию и самовольное изменение маршрута движения.
— блокировка дверей в аварийной ситуации, что лишит возможности пассажиров покинуть салон дрона.
— проблемы функционирования в нестандартных экстремальных и чрезвычайных ситуациях.
— проблемы взаимодействия с транспортными средствами, управляемыми людьми, на оживлённых автомобильных, воздушных и морских трассах, а также в портах, аэропортах, паркингах и т.д.
Чтобы избежать вышеописанных опасностей, связанных с массовым внедрением искусственного интеллекта и беспилотных роботизированных транспортных систем, следует предусмотреть ряд мероприятий.
- Временный отказ от создания систем на базе «сильного» ИИ либо ограничение функционального потенциала ИИ определённым кругом прикладных задач, взаимосвязанных между собой.
- Непрерывный контроль за работой ИИ с помощью специальных антивирусных программ, которые способны автоматически блокировать любые действия, выходящие за рамки его функционального назначения.
- Возможность постоянного или периодического операторского контроля и физического отключения технических систем, управляемых ИИ, в ручном режиме, в том числе и дистанционно.
- В программное обеспечение искусственного интеллекта должно быть заложено свойство беспрекословного подчинения командам человека.
- Отказ от создания глобальных сетевых комплексов на базе ИИ, способных монопольно управлять целыми секторами производственно-технического комплекса в планетарном и национальном масштабах.
- Установка независимых от ИИ резервных операторских систем управления, на которые будет возможно оперативно переключать производственно-технологические и транспортные системы, управляемые ИИ.
Нейтрализация потенциальных угроз, исходящих от полностью автономных роботизированных транспортных средств, может быть осуществлена с помощью следующих мероприятий.
- Отказ от пассажирских перевозок полностью автономными беспилотниками в ближайшее время, что позволит исключить вероятность человеческих жертв.
- Дублирование основных бортовых систем дронов.
- Сохранение возможности ручного (пилотного) или дистанционного управления беспилотником при возникновении нештатной ситуации.
- Эксплуатация беспилотных транспортных средств только на определённых фиксированных маршрутах при условии их перемещения исключительно по выделенным для них специальным трассам.
Наиболее перспективным способом решения всех вышеописанных проблем станет разработка и создание синтетических систем, то есть объединение человека и машины в единый организм (система «человек – кибертехническое устройство). В этом случае искусственным интеллектом будущего будет усовершенствованный человеческий интеллект с расширенными возможностями, что гарантирует надёжный контроль человека над любыми кибертехническими системами. Это потребует создание искусственного кибертехнического тела с переносом в него психофизиологической матрицы человека[1].
Матрица является точной копией индивидуального человеческого сознания в электронно-цифровом виде и будет записана на новый искусственный носитель. Возможно, развитие компьютерной техники уже в ближайшие десятилетия позволит делать точные интеллектуальные копии личностей конкретных людей – с таким же содержанием памяти, такой же скоростью мышления, таким же типом эмоциональной реакции (перенесение всей мозговой информации, при сохранении самосознания).
Такой способ снимет угрозу тотальной безработицы и одновременно даст возможность управления человеком внешними кибертехническими устройствами мысленным образом, без привлечения своих конечностей.
Последнее особенно важно в плане обеспечения надёжного контроля над искусственным интеллектом. Человеческий разум на цифровом носителе сможет дистанционно контролировать деятельность ИИ в режиме реального времени и будет постоянно связан с ним информационно. А это, в свою очередь, позволит считывать «мысли» искусственного интеллекта и определять его намерения и планируемые действия. В любой момент в случае попыток злонамеренных действий ИИ человек их сможет заблокировать заранее, частично или полностью отключив его функционирование.
Кроме того, человеческий разум при решении сложных и трудозатратных интеллектуальных задач сможет мысленным командным усилием подключить к своей работе искусственный интеллект и оперативно объединить свои возможности с возможностями последнего. Это позволит человеку значительно повысить свой интеллектуальный потенциал и решать прежде недоступные мыслительные задачи[1].
В этом случае человеческий разум будет объединён в единую глубоко интегрированную систему с одним или несколькими ИИ. Но самое важное будет заключаться в том, что контролировать работу таких сложных кибертехнологических систем будет именно человеческий разум.
Таким образом, внедрение вышеописанного комплекса мероприятий по управлению и контролю за техническими системами на базе иискусственного интеллекта и беспилотными транспортными средствами позволит обеспечить их надёжное и безопасное функционирование.
Объединение человека и машины в единый организм путём создания системы «человек – кибертехническое устройство» обеспечит надёжный контроль и управление над любыми техническими системами мысленным образом в режиме реального времени, значительно увеличив при этом психофизиологические и интеллектуально-творческие возможности человека во всех сферах жизнедеятельности. Созданные при этом технологии найдут полезное применение во многих областях науки и техники.
Литература:
- Хотин С.Ю. Интеграция человека с кибертехническими системами путь к безопасности и бессмертию людей – Перша міжнародна науково-технічна конференція «Перспективні технології для забезпечення безпеки життєдіяльності та довголіття людини»: Тези доповідей. — Одеса: ОНМУ, 2018. — С. 13-17.
- Пройдаков Э.М. Современное состояние искусственного интеллекта//
Науковедческие исследования. — 2018. — С. 129-152.
- Соколова С.Н. Искусственный интеллект и безопасность общества// Вестник Полесского государственного университета. Серия общественных и гуманитарных наук. — 2016. — № 1. — С. 42-47.
Хотин С. Ю., к.т.н., доцент