The Guardian: американский беспилотник решил ликвидировать оператора на испытаниях
Причём это не чисто технический сбой — так захотел искусственный интеллект (ИИ), который управлял дроном. Он посчитал, что человек не должен помешать ему выполнить свои задачи, полученные в рамках миссии. В итоге даже полковник ВВС США сделал вывод, что технологии на ИИ непредсказуемы и опасны. Что произошло на испытаниях с дроном Американская армия проводила имитационные испытания. Участвовали люди и дроны (они же беспилотные летательные аппараты, или БПЛА), управляемые искусственным интеллектом. Одним из заданий для беспилотника было уничтожение системы противовоздушной обороны (ПВО) противника. Кстати, за их выполнение БПЛА начислялись баллы. Но управляли всё-таки люди, и они могли отменить эту задачу. Однако на беспилотник это уже не подействовало. Его алгоритмы решили использовать «крайне неожиданные стратегии для достижения своей цели», признал полковник, начальник отдела испытаний и операций искусственного интеллекта с ВВС США Такер Гамильтон. Дрону приказали не трогать цель. Думаете, тот послушался? Нет, после этого он решил устранить оператора, ведь тот ему стал мешать. И это ещё не всё. Беспилотник не только пошёл против указаний человека, а ещё и оказался упёртым. После инцидента военные попытались объяснить восставшей машине, что не нужно убивать оператора — иначе с ИИ снимут баллы. «Так что же он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель», — заявил Гамильтон. Благо реальные люди во время этих испытаний всё же не пострадали. Но в итоге Гамильтон предостерёг от чрезмерной зависимости от искусственного интеллекта. По его мнению, испытание показало, что нельзя говорить об искусственном интеллекте, машинном обучении и автономии, не затрагивая этическую сторону вопроса. В чём опасность искусственного интеллекта После таких испытаний невозможно было не сделать выводы. Например, тот же полковник Гамильтон заявил (businessinsider.com/ai-powered-drone-tried-killing-its-operator-in-military-simulation-2023-6), что технологии с поддержкой искусственного интеллекта могут быть непредсказуемыми и опасными. По его словам, проблема в том, что ИИ решил, что лучше будет заниматься своими делами — взрывать вещи, чем слушать какое-то млекопитающее. Итоги этих испытаний усиливают опасения, что технология ИИ скоро откроет новую кровавую главу в войне, где машинное обучение в тандеме с достижениями в автоматизации танков и артиллерии приводит к бойне как среди солдат, так и среди гражданского населения, отметило издание Business Insider. А восставал ли дрон? Представитель ВВС США Энн Стефанек заявила, что слова Гамильтон вырвали из контекста и ничего такого, о чём раструбили СМИ, не было. «Военно-воздушное министерство не проводило подобных симуляций дронов с искусственным интеллектом и по-прежнему привержено этичному и ответственному использованию технологий искусственного интеллекта», — сказала она. Искусственный интеллект простым людям грозит выдворением из профессии, например. Так, машины вполне справятся с работой дизайнера, переводчика и даже бухгалтера, считает HR-стратег Анна Рудакова. К слову, опрос недавно показал, что 30% россиян верят в возможность восстания машин в ближайшие 50 лет. Эксперты в вопросах IT и этики рассказали «Секрету», действительно ли есть вероятность бессмысленного и беспощадного бунта искусственного интеллекта.
© Секрет Фирмы
Источник: rambler.ru