nCa Report
Несмотря на то, что ИИ (искусственный интеллект) хорошо знаком обычным пользователям Интернета, он по-прежнему остается своего рода пробелом, когда речь заходит о его окончательном применении в кибербезопасности.
Проблема здесь в том, что существует реальный потенциал для борьбы с ИИ. —– Если ИИ интегрирован в решения по кибербезопасности для предотвращения фишинга, что может помешать хакерам использовать ИИ в своих арсеналах для поражения системы?
Казахстан входит в число стран, которые серьезно задумываются над сценарием “хороший искусственный интеллект против плохого”.
Государственная техническая служба Казахстана, заявленная на своем веб-сайте как ‘ТЕХНОЛОГИЧЕСКОЕ ЯДРО КАЗАХСТАНСКОЙ КОМПАНИИ CYBERSHIELD” работает над интеграцией искусственного интеллекта в систему кибербезопасности.
АО “Государственная техническая служба”
Государственная техническая служба (STS) изучила недавний случай распространения фишинга и выпустила рекомендации для пользователей сети:
Как утечка данных и фишинговая атака ставят под угрозу информационную безопасность МСБ
Агентство Казинформ побеседовало с заместителем председателя правления STS Улукбеком Шамбуловым о возможном использовании моделей искусственного интеллекта для защиты от фишинговых атак.
Ниже приводим текст интервью:
– Какие возможности открывает искусственный интеллект в работе кибербезопасности?
– Во-первых, ИИ позволяет автоматизировать обнаружение угроз и реагирование на них в реальном времени, что значительно ускоряет процесс защиты. Во-вторых, ИИ может анализировать большие объемы данных для выявления паттернов и аномалий, которые могут указывать на потенциальные угрозы. Это помогает в проактивной защите, а не только в реагировании на уже произошедшие инциденты. Также ИИ способен обучаться на новых данных, что позволяет системам кибербезопасности адаптироваться к новым типам угроз.
– Может ли ИИ улучшить работу в этом направлении?
– Да, ИИ может значительно улучшить работу в кибербезопасности. Использование ИИ позволяет повысить точность обнаружения угроз, снизить количество ложных срабатываний и автоматизировать рутинные задачи. Это освобождает время для специалистов по кибербезопасности, позволяя им сосредоточиться на более сложных и критичных задачах. Кроме того, ИИ может предложить новые подходы к анализу угроз и обеспечению защиты, что делает системы более гибкими и адаптивными.
– Расскажите подробнее о механизме работы ИИ в сфере кибербезопасности.
– ИИ в кибербезопасности работает на основе алгоритмов машинного обучения и анализа данных. Сначала системы ИИ обучаются на исторических данных, включая информацию о предыдущих атаках и угрозах. На основе этого обучения ИИ создает модели, которые способны идентифицировать подозрительное поведение или аномалии в сетевом трафике. Затем ИИ использует эти модели для мониторинга текущих данных и активностей, выявляя потенциальные угрозы и автоматически реагируя на них, например, блокируя подозрительный трафик или отправляя уведомления специалистам.
– Существуют ли риски при использовании в работе ИИ?
– Да, при использовании ИИ в кибербезопасности существуют риски. Один из основных рисков заключается в том, что ИИ может стать «черным ящиком», где решения принимаются на основе алгоритмов, которые сложно объяснить или понять. Это затрудняет отладку и улучшение систем, а также снижает доверие к их решениям. Например, при использовании таких моделей, как GPT, возможны случаи так называемых «галлюцинаций», когда ИИ генерирует неверные или неточные данные. В связи с этим рекомендуется перепроверять действия ИИ и не полагаться на них на 100%, так как возможны ошибки.
Кроме того, существует риск того, что злоумышленники могут попытаться обмануть ИИ-системы, используя новые методы атак. Поэтому важно регулярно обновлять модели ИИ и обеспечивать их способность адаптироваться к новым угрозам.
– Есть ли системы защиты от непредвиденных обстоятельств при работе с ИИ?
– Да, существуют различные системы и практики для защиты от непредвиденных обстоятельств при работе с ИИ. Это включает в себя внедрение механизмов мониторинга и аудита, чтобы отслеживать работу ИИ-систем и выявлять потенциальные сбои. Также применяются методы тестирования и верификации, чтобы убедиться, что ИИ-системы работают корректно и безопасно. Важным аспектом является регулярное обновление и обучение моделей, чтобы обеспечить их способность реагировать на новые угрозы и изменяющиеся условия.
Напомним, что в этом году в Казахстане разработали концепцию развития искусственного интеллекта 2024-2029 годы. Помимо этого, государство разрабатывает законопроект по регулированию искусственного интеллекта в стране.
ИИ уже применяют в работе государственных органов. Например, вице-министр энергетики РК Ильяс Бакытжан на брифинге в СЦК заявил, что сегодня элементы искусственного интеллекта уже применяются в отдельных направлениях ведомства.
Ранее сообщалось, что в ЕС вступил в силу первый в мире закон, определяющий правила использования систем, основанных на искусственном интеллекте. Его цель – снизить риски, связанные с ИИ. Европейская комиссия создает орган для надзора за соблюдением законодательства. Для нарушителей предусмотрены внушительные штрафы.
* * *
Страны Центральной Азии, включая Казахстан, не только пытаются освоить быстрые разработки в области искусственного интеллекта и машинного обучения, но и находят им практическое применение.
Важной областью, от которой всегда следует защищаться, является надвигающийся сценарий противостояния хорошего ИИ плохому. /// nCa, 20 августа 2024 г.