PROBLEMS OF THE INTRODUCTION OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES INTO THE NAVIGATION SAFETY MANAGEMENT SYSTEM
Abstract and keywords
Abstract (English):
The problems associated with the use of artificial intelligence in the navigation safety management system are considered, affecting scientific, philosophical, psychological, legal, technical, operational and other aspects formed in connection with the rapid penetration of artificial intelligence into marine technologies. Currently, marine autonomous surface vessels (MASV) of a number of foreign countries (China, Japan, Denmark, Sweden, the USA, etc.) are already undergoing pilot operation in the coastal areas of the World Ocean. In Russia, scientific research is also conducted under state supervision and experimental flights are conducted on ships of various types and equipment. The emerging problems of implementing artificial intelligence on marine vessels are very ambiguous and very risky, since they affect the problems of all mankind (95% of global trade is carried out across the ocean). Preventing threats to the “marine environment – ship – cargo – human” macro system cannot be solved without an integrated, systematic approach. All communications within and outside the system cannot be carried out without developing a whole package of interrelated normative legal acts, both national and international. The set of provisions and documents of the international maritime organization is aimed at well-known naval vessels, their observance during operation at sea should not violate established patterns. In particular, the problems related to responsibility at all levels, both in inland waters and on the high seas, should be solved in principle. The definition of the concept of artificial intelligence is given and the problems are reflected: the creation of on-board intelligent systems, the integration of artificial intelligence features with the natural potential of human intelligence and the use of artificial intelligence, the realization of world goals and solving pressing problems of mankind and forecasting the prevention of threats to the system in the future.

Keywords:
artificial intelligence, on-board intelligent systems, maritime safety, intelligent intensification, cognitive modeling, safety factors, anthropogenic predictors
Text
Text (PDF): Read Download

Введение

Основными элементами системы управления безопасностью мореплавания (макросистемы) являются, во-первых, человек (человеческий элемент – ЧЭ), во-вторых, судно как транспортное средство, груз как предмет для транспортировки, в-третьих, условия окружающей среды – морское и воздушное пространство. Образуя комплекс макросистемы, оказывая влияние на характер ее деятельности, каждый из названных элементов имеет свои специфичные черты, точки и рычаги взаимодействия и может быть рассмотрен в качестве самостоятельной подсистемы. 

Первостепенным и значимым элементом, находящимся на вершине холархии макроса, безусловно, является ЧЭ. В процессе управления судном он подчиняет себе первые две подсистемы, преодолевает третью, учитывает их взаимное влияние друг на друга и координирует свою деятельность.

Управление судном представляет собой информационный процесс, поэтому важное значение имеет количество, своевременность и достоверность информации. Результатом процесса переработки информации является принятое решение. Судоводителю часто приходится принимать алгоритмические решения, обоснование которых производится по определенным установленным правилам – алгоритмам, основанным на строгой формализации, или эвристические, выполнение которых основывается не на формальном, а на творческом методе без каких-либо установленных правил [1].

В зависимости от наличия и характера исходной информации судоводитель вынужден принимать решение в условиях определенности (полная информация) или в условиях не­определенности (неполная информация или ее отсутствие). В силу субъективного характера самого акта принятия решения невозможно установить для него единые и строгие правила. Основную роль в процессе принятия решения играют опыт, личные способности и умение предвидеть развитие событий.

Существенное влияние оказывают консциентальные предикторы. Нередким явлением в опасных условиях, ведущих к аварийным ситуациям, становится психологический стресс. И члены судового экипажа, будучи квалифицированными специалистами, могут допустить погрешность – принять неверное решение. Таким образом, можно прийти к выводу о том, что ни один из элементов судна или его подсистем не обладают достаточной надежностью.

 

Материалы исследования

Анализ причин и следствий столкновений, повреждений судов, аварийных несчастных случаев в море подтверждает эпизодический, акцидентный характер их возникновения [1].

Рассматривая патогенез событий как несистемный, случайный, можем прийти к определенному выводу, если принять, что

    

где Е – инциденты в море, возникшие из-за технических неисправностей; Н – инциденты, возникшие из-за инспирированных предикторов, а  и  – множество инцидентов.

Инциденты Ei возникают в ходе инженерных разработок, во время производства или эксплуатации по дискурсивным моделям «И», «ИЛИ», «m из n». Порождение инцидентов Hj складывается по принципу «домино» или появляется как следствие ряда происшествий, возникших по названным выше схематическим моделям [1].

Одна и та же кинестетическая выраженность происшествий может быть спровоцирована дифференциальными вариативными факторами.

Объективная возможность (вероятность) инцидентов P(E) и P(H) в общем виде констатируется как

.

Допустимость инцидентов F отражает импликативную вероятность

Так как P(E) > 0, P(H) > 0, то вероятность инцидента P(F) > 0, что указывает на тот факт, что разработать гарантированную надежную систему с нулевой вероятностью инцидентов невозможно, т. е. абсолютной безопасности нет [2].

Создание бортовых интеллектуальных комплексов (ИК) – сложная и трудно формализуемая задача, а применение методов искусственного интеллекта в бортовых ИК для ее решения сопряжено с необходимостью учета сложнейших процессов, таких как [1]:

  • компликация и квинтэссенция, неопределенность и недостаточность исходной информации;
  • подвижность предмета внимания как проблемы, отсутствие времени на поиск решений;
  • преобразование экзогенной среды и характеристик плавучего объекта;
  • влияние ЧЭ.

И при таком подходе на разработку ИК проявляется первая проблема - общепринятого понятия «искусственный интеллект» нет.

Первая попытка дать определение искусственному интеллекту принадлежит Дж. Маккарти. По его мнению, искусственный интеллект – это:

  • способность конвенциональных высокоинтеллектуальных систем совершать уникальные мыслительные операции, которые ортодоксально присущи исключительно человеку (не связывать с искусственным сознанием);
  • научные парадигмы и методы разработки, конструирование интеллектуальных инженерных комплексов, интеллектуальных компьютерных программ (время появления первых компьютеров).

Прошло более чем полвека, и вот современная наука уже рассматривает другое суждение, которое заключается в том, что интеллект является биологическим уникальным явлением.

Ученые лингвисты переводят слово intelligence как «умение рассуждать разумно», одновременно подчеркивают, что в английском языке слово «интеллект» имеет свой эквивалентный вариант – intellect. Соответственно, словосочетание artificial intelligence не несет антропоморфных признаков, присущих слову «интеллект», речь идет о сознательных логических мыслительных операциях [3].

В деятельности ЧЭ вынужден предусматривать появление непредвиденных явлений, окказиональных действий членов судового экипажа, которые могут возникать на уровне социальных коммуникаций. Принятие решения судоводителем является своеобразным декларативным предохранительным механизмом, оберегающим коллектив экипажа от «взрыва» на уровне сотрудничества и общения, опрометчивых поступков, неумышленных непрофессиональных действий. Искусственный интеллект эти моменты может не только не учесть, но и не выявить вовсе [4, 5].

Мышление ЧЭ - интеллектуальная интенсификация. Под мышлением может пониматься только ее активная дифференциальная мыслительная часть.

Интеллектуальная интенсификация ЧЭ - это любая работа, связанная с изменением информации, ее интроспективная формация, поэтому слово «информация» детерминировать сложно. В настоящей работе достаточно толковать термин «информация» как некоторое состояние и возможное изменение физического мира, на основании которых ЧЭ получает данные (информационные сообщения), касающиеся не лично ЧЭ, а окружения или чего-то другого [4].

Кто (ЧЭ или ИК) и как способен эти сообщения считывать, обрабатывать и применять? Этот парадокс выступает в качестве доминантного. Возможность считывать в одном моменте доказательства других признаков и есть, по сути, манипуляция, восстанавливающая информацию. Исходные данные не являются информацией, они означают некоторое состояние физического мира, пока не окажутся востребованными для кого-то [3, 4].

Таким образом, определена вторая проблема создания бортовых ИК, особенно актуальная для безопасности системы «морская среда – судно – груз – ЧЭ».

В некоторых документах литературных российских и зарубежных источников даны формулировки искусственного интеллекта, фиксирующие спецификацию использования данного феномена в разных сферах деятельности – финансовых операциях в бизнесе, диагностирование в медицине, наложение оркестровых фонов в музыке, пределы компетенции в правовых вопросах юрисдикции, эмпирически проверяемые и подтверждаемые знания в науке, расширение возможностей технических средств и технологий для создания материальных ценностей и т. д.

Сформулированы определения понятия «искусственный интеллект», которые раскрывают его с разных сторон [3, 5, 6]:

  • вектор науки, в контексте которого определяются и рассчитываются задачи создания программных моделей форм человеческой активности, которые ортодоксально принято относить к интеллектуальным;
  • качество высокоинтеллектуальных систем осуществлять уникальную (творческую) деятельность, которая всегда являлась преимуществом человека (высокоинтеллектуальная система обладает внутренними резервами знаний в определенной предметной области, хранящимися в памяти, и функциями раскрытия этих знаний при необходимости);
  • предметный курс в информатике или информационных технологиях, который предполагает воспроизведение мыслительных операций с помощью вычислительных программ специального оборудования;
  • потенциал и восприимчивость системы точно трактовать и комментировать кинестетическую информацию, давать показания и рекомендации для дальнейшего использования. 

Если учитывать общие детерминанты для человека и программного вычислительного оборудования, можно дать следующее определение понятию «интеллект»: это ресурс системы генерировать образовательные тренировочные программы с повышенной сложностью, предлагать и демонстрировать возможные способы и варианты решения.

Третья проблема является следствием первых двух. В науке нет четкого определения, в какой именно области наиболее востребован искусственный интеллект. Каждый из авторов-ученых, опираясь на свое толкование понятия, рассматривает его в свете свершений определенной научной доктрины.

В философии также открыт вопрос о природе и статусе интеллекта человека. Нет доказательства «разумности» искусственного интеллекта. В первоначальных источниках, посвященных данной проблеме, были выдвинуты разные гипотезы. Несмотря на разные комбинации представления задач и комбинационных схем искусственного интеллекта, сверхинтеллектуальная информационная система так и не создана [3, 5, 6].

Первым из исследователей, предложивших логичные критерии для выявления результативности искусственного интеллекта, стал А. Тьюринг. Предложенный ученым эмпирический тест помогает детерминировать потенциал и особенности искусственного мышления, близкого к мышлению человека. Один человек взаимодействует с компьютером. На основании ответов компьютера человек должен определить, с кем он общается: с человеком или компьютером. Задача компьютера - введя человека в заблуждение, заставить его сделать неверный выбор [6].

Современные писатели-фантасты публикуют навязчивую мысль: искусственный интеллект сформируется близким к человеческому только в случае, если машина научится чувствовать и творить. Однако это не мешает развиваться и другим потенциальным вариантам: логический, агентно-ориентиро-ванный, гибридный, работа с естественными языками, биологическое моделирование искусственного интеллекта, робототехника, машинное творчество и другие области исследований [3, 7].

Далее рассмотрим четвертую проблему внедрения технологий искусственного интеллекта.

В XXI в. становятся эманированными два вектора формирования искусственного интеллекта [7]:

  • интеграция преимущественных особенностей искусственного интеллекта с природным потенциалом человеческого интеллекта;
  • использование созданного на интегральной основе искусственного разума для реализации мировых целей и решения проблем человечества.

Ведущая роль отведена науке когнитологии, которая не только изучает процессы аккумуляции и ассимиляции, воссоздания и использования информации, но и объединяет другие науки, заставляя их работать на себя, – нейрофизиологию, эпистемологию, психологию (когнитивную) [5, 7].

Методология когнитивного моделирования, предложенная Р. Аксельродом, в настоящее время прогрессирует в направлении совершенствования аппарата анализа, моделирования ситуации, вариантов прогнозов развития ситуации и методов решения обратных задач.

Совершенно по-другому звучит тема «Создание искусственного разума» у философов. Представители одной группы ученых борются за открытие искусственного интеллекта, работают над точным определением самого понятия, предвкушая возможности, которые откроются перед человечеством. Другая группа ученых акцентирует внимание на моменте, касающемся будущего: для них важна консеквенция открытия [3, 7].

Несмотря на противоречивые высказывания насчет рисков и последствий, мнения ученых однозначны в вопросе необходимости создания искусственного интеллекта. Представители течения трансгуманизма относят этот вопрос к задачам первостепенной важности [3, 8–10].

Различные гипотезы были выдвинуты и нашли свое подтверждение в применении искусственного интеллекта в той или иной области. Однако к созданию искусственного разума ни одна исследовательская группа пока так и не подошла, несмотря на полученные результаты: разработка IBM Watson, способная воспринимать человеческую речь и производить вероятностный поиск; одна из экспертных разработок MYCIN, которая могла диагностировать небольшой набор заболеваний, причем часто так же точно, как и доктора; система распознавания речи Via Voice; система Midjourney, генерирующая изображения на основе текстовых запросов [8–10].

К наиболее известным в области искусственного интеллекта можно отнести системы компьютерных игр: шахматная программа разработки IBM победила чемпиона мира по шахматам; программа игры «Го» разработки DeepMind выиграла матч у корейского профессионала девятого дана Ли Седоля [8, 9]

Наиболее крупные научные и исследовательские центры в области искусственного интеллекта находятся в России, Индии, США, Германии и Японии (Научный совет по методологии искусственного интеллекта РАН, Индийский технологический институт в Мадрасе, Массачусетский технологический институт машинного интеллекта, Немецкий исследовательский центр по искусственному интеллекту и Национальный институт передовой промышленной науки и технологий Японии) [3, 9].

Пятая проблема обусловлена тем, что безопасность мореплавания, как и безопасность других структурно сложных объектов и макросистем, должна решаться в определенной последовательности этапов, охватывающих стадии проектирования, производства и эксплуатации. Временной период для вхождения искусственного интеллекта в реальность для таких объектов и макросистем не определен, поскольку все составляющие стадии весьма инерционны [9, 10].

Например, традиционные методы расчетов на прочность, базирующиеся на концепции коэффициентов безопасности (например, коэффициенты запаса по пределу текучести и пределу прочности), позволяют установить предельные уровни допускаемых в эксплуатации усилий, напряжений и деформаций. Для обоснованности назначения ресурсных характеристик используют методы расчета на мало- и многоцикловую усталость в детерминированной и вероятностной трактовках [7, 11–15].

Потребность формируемой теории риска характеризуется переходом от доминирующей ранее концепции коэффициентов безопасности к концепции приемлемого риска (характерно для РФ только в XXI в.).

Перейдем к шестой проблеме. Чтобы предотвращать угрозы, необходимо научиться прогнозировать будущее. Прогнозы для развития глобальных проблем невозможны в рамках одного направления науки. Когда речь идет о безопасности человека, важными становятся междисциплинарные подходы. Они играют роль своеобразной системной интеграции отраслей науки, помогают взглянуть на проблему в целом. Поэтому необходимо, чтобы создаваемая сейчас теория риска и управления безопасностью разрабатывалась на основе достижений искусственного интеллекта и стала широким обобщающим междисциплинарным подходом (философия, экология, кибернетика, синергетика, когнитивная психология и другие науки), способным играть важную роль в выборе алгоритма развития человеческой организации [9, 10]

Авторами предлагается один из возможных теоретических подходов к разработке основополагающих принципов теории риска и управления безопасностью (в том числе и на море), в основе которого лежат [16–19], во-первых, законы энергоинформационного полевого взаимодействия между объектами и субъектами систем различного порядка и сложности, во-вторых, как субъект и объект безопасности человек присутствует во всех ее системах, играя в них при этом основную, системообразующую или негативную роль. Человек - результат опасностей, человек - источник опасностей, и человек - основа безопасности своей, социума и Земли. Поэтому основным постулатом выдвигается антропоцентрический принцип, исходящий из насущной потребности человека в безопасности. Нет человека, и никому не нужна безопасность [18]. В-третьих, если полагать, что обеспечение безопасности человека является основным критерием всех аспектов безопасности в системах всех форм и на любых уровнях, то решение проблемы предлагается на принципах самоорганизации старших по иерархии систем, где невозможно установление жесткого контроля за системой. Управление такой системой может рассматриваться лишь как способствование собственным тенденциям развития системы с учетом присущих ей элементов саморегуляции. Ядром такой системы является триада «Природа – Человек – Общество». Центральной компонентой полной функции управления является ЧЭ, опирающийся в своей деятельности на искусственный интеллект, ограниченный функцией безвредности по отношению к нему. Подсистемами будут являться интеллектуальные комплексы любого уровня, подчиненные и обслуживающие основную триаду [17].

В совокупности все изложенные выше принципы обеспечат решение одной из важнейших проблем человечества, которая является целью общей теории риска и безопасности - проблему экологической безопасности [20–22].

Рассмотрим математическую модель [23], которая дает возможность предусмотреть объединение многих биологических параметров и физических особенностей среды в создании экологических условий для существования человека (во времени), определяемых через нормированную функцию G и представляющую собой этот запас жизнедеятельности. Авторы [23] предлагают использовать ее в качестве основы для запрещающего надзора над действиями искусственного интеллекта в системах управления безопасностью, в случае возникновения угрозы для существования человека со стороны искусственного интеллекта:

где Аi – функции природных и антропогенных предикторов, оказывающих воздействие на резервы жизнедеятельности, но не располагающих определением наибольшей величины для благоприятных условий существования, имеет отличительную черту в диапазоне исследуемых (возможных) значений только лимитирующим фактором (уровнем, дозой и т. д.); Kj – функции природных и антропогенных предикторов, оказывающих воздействие на резервы жизнедеятельности, располагающие определением наибольшей величины для благоприятных условий, называемые «зонами комфорта»; G – общепринятая функция с уровнем нормы (сфера константного существования устанавливается неравенством Gmin < G £ 1), фиксирующая резерв жизнедеятельности.

Некоторые функции вида Аi представлены ниже [23]:

 

где αi – весовой множитель i-го фактора, величина множителя обусловлена временем воздействия фактора; fi – нормированный фактор (fi = Фi / ФПДК, где Фi и ФПДК измеренное и предельно допустимое значения i-го фактора).

Факторы, вредно воздействующие на организм человека: теплового излучения fт, светового излучения fc, задымленности fз, шумности fш, действия электрического тока fэл, действия электрического напряжения fн, действия электромагнитных полей fп, некоторых сильнодействующих ядовитых газообразных веществ при различных концентрациях и экспозициях fяв, воздействия проникающей радиации fр, отморожения fот и др.

Перечисленные выше факторы не охватывают, безусловно, всей совокупности опасных влияний на организм человека, они лишь дают информацию об их многообразии и степени воздействия на общий запас жизнедеятельности (в некоторых источниках количество вредных факторов больше 30).

Некоторые функции вида Kj [23]:

где Фj - фактор; a и b - пределы терпимости организма человека к данному фактору.

Как правило, факторы Фj определяют наиболее благоприятные условия существования человека или так называемые «комфортные зоны»: температура – 20–25 °С при относительной влажности 50–70 %; атмосферное давление – 101,3 кПа (760 мм рт. ст.); освещенность – порядка 250–300 лк и многие другие параметры.

В этом случае проблемы безопасности человека и защиты окружающей среды будут определять экономическое и научно-техническое развитие современной цивилизации. Системы управления безопасностью, подчиненные основной триаде, будут обеспечивать безопасность не только мореплавания, всецело реализуя в себе основные принципы предлагаемого подхода на основе искусственного интеллекта.

Анализ полученных данных теста А. Тьюринга не убеждает в наличии факта, что машина может являться носителем процесса мышления. Подтверждает это и мысленный эксперимент Дж. Сёрля под названием «Китайская комната». В книге «Новый ум короля» Р. Пенроуз констатирует, что номинативные искусственные системы не могут дать живого процесса мышления [21].

В 2018 г. М. Хатсон в статье журнала Science отмечает, что проблема открытия искусственного интеллекта заключается в отсутствии возможности воспроизвести результаты. Данные рецензентов закрыты кодами, которые согласно утвержденной практике невозможно вскрыть, соответственно, невозможно диагностировать и делать выводы насчет «успехов» искусственного интеллекта [21].

Профессор Е. Юдковски (SIAI, США) предупреждает о тотальных проблемах в случае пренебрежения опасностью, к которой может привести взаимодействие человечества с искусственным интеллектом; подчеркивает важность программирования «нового сознания» на приоритетное отношение к человеку [21].  

В 2004 г. общественности США было предложено высказать мнение о решении проблем, поднятых в фильме «Я, робот». Речь шла об этике использования искусственного интеллекта. Обсуждалась идея того, что законы робототехники Азимова как игра с жизнью и смертью: не понимая человеческих чувств и ощущений, искусственный интеллект может в благих целях – защиты от вреда - отстранить людей от власти на Земле, установив свои законы [21].

С внедрением в жизнь искусственного интеллекта возникают и правовые вопросы. Уже сегодня они становятся насущными. Например, кто будет нести ответственность и какую ответственность при столкновениях, авариях и прочих коллизиях на море с морскими автономными судами, управляемыми ИК на базе искусственного интеллекта [24–26].

 

Заключение

Ключевыми составляющими системы управления безопасностью мореплавания являются ЧЭ, судно, груз и окружающая среда. Первостепенным и значимым элементом, находящимся на вершине холархии макроса, безусловно, является ЧЭ (судоводитель).

В зависимости от наличия и характера исходной информации (полная, неполная или ее отсутствие) судоводитель принимает субъективные решения, для которых невозможно установить единые и строгие правила. Основную роль при этом играют опыт, личные способности и умение предвидеть развитие событий. Нередким явлением в опасных условиях, ведущих к аварийным ситуациям, становится психологический стресс, и судоводители могут принять неверное решение. Таким образом, ни один из элементов судна или его подсистем не обладают достаточной надежностью и безопасностью.

Создание бортовых ИК – сложная и трудно формализуемая задача, а применение методов искусственного интеллекта в бортовых ИК для ее решения сопряжено с необходимостью учета сложнейших процессов, протекающих в изменяющемся информационном поле при отсутствии времени на принятие решений, порой в бушующей среде и меняющихся характеристиках самого судна.

При таком подходе на разработку ИК оказывают влияние достаточное количество проблем, сопряженных с разработкой искусственного интеллекта. Первая проблема - общепринятого понятия «искусственный интеллект» нет.

В своей работе судоводитель вынужден предусматривать появление непредвиденных явлений, окказиональных действий членов судового экипажа, а искусственный интеллект на это не будет реагировать никак. Таким образом, проявляется еще одна проблема создания бортовых ИК, особенно актуальная для системы управления безопасностью системой «морская среда – судно – груз – ЧЭ».

В науке нет четкого определения, в какой именно области наиболее востребован искусственный интеллект. Каждый из авторов-ученых, опираясь на свое толкование понятия, рассматривает его в свете свершений определенной научной доктрины. В силу этого предлагается один из возможных теоретических подходов для разработки основополагающих принципов теории риска и управления безопасностью (в том числе и на море) - антропоцентрический принцип, исходящий из насущной потребности человека в безопасности. Решение такой задачи предлагается на принципах самоорганизации старших по иерархии систем, где невозможно установление жесткого контроля над системой. Управление такой системой может рассматриваться лишь как способствование собственным тенденциям развития системы с учетом присущих ей элементов саморегуляции. Центральной компонентой полной функции управления является ЧЭ, опирающийся в своей деятельности на искусственный интеллект, ограниченный константой безвредности по отношению к человеку.

Нарастающие темпы внедрения и применения искусственного интеллекта почти во всех процессах развития человеческой цивилизации, и в том числе на море, незаметно привели к обострению вышеперечисленных проблем, возникающих на любом уровне. Встал вопрос о разработке философских основ интеллектуальной культуры в сфере искусственного интеллекта, ведь у человечества уже есть пример атомной бомбы.

References

1. Bondarev V. A., Nechaev Iu. I. Iskusstvennyi intellekt v chrezvychainykh situatsiiakh moreplavaniia: monografiia [Artificial intelligence in emergency situations of navigation: monograph]. Saint Petersburg, Art-Ekspress Publ., 2017. 336 p.

2. Nechaev Iu. I., Degtiarev A. B., Bukhanovskii A. V. Identifikatsiia ekstremal'noi situatsii v nechetkikh usloviiakh [Identification of an extreme situation in fuzzy conditions]. Sbornik dokladov Mezhdunarodnoi konferentsii po miagkim vychisleniiam. Saint Petersburg, Izd-vo LETI imeni V. I. Ul'i-anova (Lenina), 1998. Vol. 1. Pp. 85-88.

3. Shvyrkov A. I. Iskusstvennyi intellekt kak filosofskaia problema i iskusstvennye intellektual'nye sistemy [Artificial intelligence as a philosophical problem and artificial intelligent systems]. Nomothetika: Filosofiia. Sotsiologiia. Pravo, 2022, vol. 47, no. 4, pp. 670-681.

4. Kurpatov A. Myshlenie. Sistemnoe issledovanie [Mind. Systemic research]. Moscow, Kapital Publ., 2018. 672 p.

5. Sobolev I. V., Potapova E. A. Problema vozmozhnosti iskusstvennogo intellekta s tochki zreniia psikhologicheskoi nauki [The problem of the possibility of artificial intelligence from the point of view of psychological science]. Kollektsiia gumanitarnykh issledovanii, 2022, no. 2 (31), pp. 51-57.

6. Zaboev A. A, Orlova A. I., Trapeznikov M. V. Problema iskusstvennogo intellekta i budushchee chelovechestva [The problem of artificial intelligence and the future of mankind]. Innovatsii. Nauka. Obrazovanie, 2021, no. 46, pp. 2115-2119.

7. Nedogarok V. V. Metody dlia resheniia problem iskusstvennogo intellekta [Methods for solving artificial intelligence problems]. EO IPSO, 2022, no. 6, pp. 34-36.

8. Akent'ev D. G., Maksimov D. I., Lysenko I. S. Problema iskusstvennogo intellekta i iskusstvennogo razuma v zhizni sovremennogo cheloveka [The problem of artificial intelligence and artificial intelligence in the life of a modern person]. Aktual'nye problemy aviatsii i kosmonavtiki, 2018, vol. 3, no. 4 (14), pp. 690-692.

9. Timofeev A. V. Sushchnost' i problemy iskusstvennogo intellekta v kontekste sovremennykh nauchnykh i filosofskikh predstavlenii [The essence and problems of artificial intelligence in the context of modern scientific and philosophical concepts]. Vestnik Moskovskogo gosudarstvennogo oblastnogo universiteta. Seriia: Filosofskie nauki, 2020, no. 2, pp. 127-133.

10. Riabinin I. A. Nadezhnost' i bezopasnost' strukturno-slozhnykh sistem [Reliability and safety of structurally complex systems]. Saint Petersburg, Politekhnika Publ., 2000. 248 p.

11. Karimov K. S. Osnovnye problemy iskusstvennogo intellekta v nauke [The main problems of artificial intelligence in science]. Postsovetskii materik, 2022, no. 4 (36), pp. 59-66.

12. Arrykova G. K., Ezizova S. E., Garaev G. B., Khodzhakaeva D. M. Iskusstvennyi intellekt i neironnye seti: sovremennye tekhnologii v reshenii kliuchevykh problem [Artificial intelligence and neural networks: modern technologies in solving key problems]. Ceteris Paribus, 2023, no. 12, pp. 16-18.

13. Simankov V. S., Astrein V. V. Osnovnye metodologicheskie aspekty organizatsii i funktsionirovaniia sistem podderzhki priniatiia reshenii bezopasnosti sudovozhdeniia [The main methodological aspects of the organization and functioning of decision support systems for ship safety]. Ekspluatatsiia morskogo transporta, 2016, no. 2 (79), pp. 56-64.

14. Boldina O. B. Sudovaia avtomatika: tendentsii razvitiia i innovatsionnye resheniia [Marine automation: development trends and innovative solutions]. Nauka. Tekhnika. Tekhnologii (politekhnicheskii vestnik), 2023, no. 2, pp. 37-39.

15. Sedova N. A. Intellektual'naia otsenka stepeni opasnosti stolknoveniia dlia bezekipazhnogo sudna: monografiia [Intelligent assessment of the degree of collision hazard for an unmanned vessel: monograph]. Moscow, Ai Pi Ar Media Publ., 2022. 92 p.

16. Iavorskaia D. O., Boran-Keshish'ian A. L., Myts R. A., Teshnich M., Kuznetsova Iu. S. Sdvig raspredeleniia dannykh kak odna iz osnovnykh problem vnedreniia iskusstvennogo intellekta v sudokhodstvo [The shift in data distribution as one of the main problems of the introduction of artificial intelligence in shipping]. Ekspluatatsiia morskogo transporta, 2023, no. 1 (106), pp. 111-114.

17. Panchenko A. L., Panchenko T. G., San'kov V. V. Osnovy Eniostilia. Bazovaia kontseptsiia ucheniia o garmonii energoinformatsionnogo obshcheniia s liud'mi i prirodoi [The basics of Eniostyle. The basic concept of the doctrine of the harmony of energy-informational communication with people and nature]. Izhevsk, Poligrafiia Publ., 1995. 60 p.

18. Smirnov A. P. Dinamika real'nykh protsessov organizatsii i energoinversii [Dynamics of real processes of organization and energy conversion]. Mezhakademicheskii informatsionnyi biulleten', 1998, no. 1-2 (8-9), pp. 32-36.

19. Bogdanov V. A., Rep'ev S. I. Psikhoenergeticheskie oktavy i tenzory antropogeneza [Psychoenergetic octaves and tensors of anthropogenesis]. Mezhakademicheskii informatsionnyi biulleten', 1999, no. 10-12, pp. 79-81.

20. Uvarova G. G. Mekhanizmy parirovaniia riskov v sovremennoi ekologicheskoi politike [Mechanisms for fending off risks in modern environmental policy]. Gosudarstvennoe i munitsipal'noe upravlenie. Uchenye zapiski SKAGS, 2011, no. 3, pp. 77-83.

21. Khodzhaeva D. F., Omonov A. A., Tugizboev F. U. Problemy, s kotorymi mozhno stolknut'sia pri vnedrenii iskusstvennogo intellekta [Problems that can be encountered when implementing artificial intelligence]. Nauka, tekhnika i obrazovanie, 2021, no. 5 (80), pp. 23-26.

22. Ditsevich Ia. B., Karnaukh D. V., Tol'zak A. E. Primenenie iskusstvennogo intellekta v reshenii ekologi-cheskikh problem sovremennosti [The use of artificial intelligence in solving environmental problems of our time]. Teoriia gosudarstva i prava, 2023, no. 2 (31), pp. 50-64.

23. Riabinin A. G., Riabinin G. A., Latukhov S. V., Usachev V. V. Matematicheskaia model' funktsionala zhiznedeiatel'nosti naseleniia v «kontseptsii riska» [A mathematical model of the functional activity of the population in the “concept of risk”]. Novosti nauki, 1998, no. 1, p. 20.

24. Shakhanova M. V., Shmykov N. V., Shakhanova E. S. Primenenie sistem iskusstvennogo intellekta v sfere informatsionnoi bezopasnosti morskogo sudokhodstva [Application of artificial intelligence systems in the field of maritime information security]. Mezhdunarodnyi zhurnal informatsionnykh tekhnologii i energoeffektivnosti, 2023, no. 12 (38), pp. 112-115.

25. Pushkarev S. V. Problemy pravovogo regulirovaniia otvetstvennosti za vred, prichinennyi iskusstvennym intellektom [Problems of legal regulation of liability for damage caused by artificial intelligence]. Mariiskii iuridicheskii vestnik, 2022, no. 1 (37), pp. 46-48.

26. Aksenova A. S. Pravovye problemy ispol'zovaniia iskusstvennogo intellekta na morskom transporte [Legal problems of using artificial intelligence in maritime transport]. Akademicheskaia publitsistika, 2023, no. 5-2, pp. 360-366.


Login or Create
* Forgot password?