Дипфейки, боти й дезінформація: у кіберполіції розповіли про загрози через використання ШІ

Правоохоронці попереджають, що в майбутньому кількість кіберінцидентів, спровокованих штучним інтелектом, зростатиме.

Про це сказав керівник відділу з протидії протиправному контенту Департаменту кіберполіції Національної поліції Віктор Байов на презентації дослідження «Коли штучний інтелект стає ворожим», передає Укрінформ.

«Уже є певні центри комунікації з оборонними структурами, з міжнародними партнерами для оперативного реагування на інциденти, які стосуються ШІ, які спровоковані ШІ, бо чим далі, тим... їх буде більше, з урахуванням суспільно-політичної складової в нашій державі, військових дій та щоденних намагань ворога все більше нас дестабілізувати», - сказав Байов.

У цьому зв'язку він наголосив на необхідності інвестицій у технічні потужності, підготовки фахових слідчих та експертів із штучного інтелекту та цифрової криміналістики.

«Потрібно створювати лабораторії цифрової криміналістики, інструменти для детекції дипфейка та автоматизованого розпізнавання бот-мереж. Тут вже йдеться про експертні дослідження», - сказав представник кіберполіції.

За його словами, державні експертні судові установи ще не виділили як окремий напрямок експертизу, яка стосується ШІ.

Читайте також: У TikTok - нова хвиля фейкових відео з українськими військовими

«І зараз... довести (у разі скоєння злочину – ред.), чи це дійсно є ШІ, чи це є реальна особа, судова експертиза це нам не скаже. Це тільки приватні експертизи, які у кримінальних провадженнях не мають доказової бази», - зауважив Байов.

Він зазначив, що також дуже важливим є запровадження змін щодо регулювання вимог до платформ на базі ШІ і постачальників.

На його думку, в законодавстві необхідно запровадити таку дефініцію, як злочини із застосуванням штучного інтелекту.

«Це має бути комплексний підхід, починаючи від оновлення кримінального та процесуального законодавства, бо у нас наразі чітко не визначено «злочини із застосуванням ШІ». Потрібно визначати, що це – маніпуляції, масова дезінформація, автоматизована атака тощо», - сказав поліцейський.

Байов пояснив, що зараз класифікують напрямок вчинення злочинів із застосуванням ШІ як технологічно посилену кіберзагрозу.

«Вона може у собі поєднувати методи стандартних кіберзлочинів, таких як фішинг, поширення шкідливого програмного забезпечення, проведення DDOS-атак , використання бот-мереж тощо. І все це поєднується з автоматизованою генерацією контенту. Також це поєднується з соціально-інженерними кампаніями тощо», - заявив він.

Читайте також: Поліція викрила шахраїв, які за допомогою штучного інтелекту оформлювали кредити на українців

Представник кіберполіції поінформував, що такі інциденти класифікувати за кількома вимірами, зокрема за цілями та наслідками. «Це можуть бути як і економічні втрати, шкода репутації, психологічний тиск, так і дестабілізація інформпростору та шкода нацбезпеці та оборони під час війни», - уточнив Байов.

За рівнем організації, за його словами, такі інциденти можна класифікувати як такі, що можуть створювати індивідуальні зловмисники або кримінальні мережі, тощо.

Як повідомляв Укрінформ, одними з найбільших загроз штучного інтелекту є дезінформація і масове поширення пропаганди, які генеруються за допомогою цієї технології.

Фото: ВМС



Další zprávy

Právě zveřejněno

Všechny zprávy

Reklama

ISSN: 1213-5003 © Copyright 19.12.2025 ČTK

Reklama

4°C

Dnes je pátek 19. prosince 2025

Očekáváme v 09:00 2°C

Celá předpověď