Про це сказав керівник відділу з протидії протиправному контенту Департаменту кіберполіції Національної поліції Віктор Байов на презентації дослідження «Коли штучний інтелект стає ворожим», передає Укрінформ.
«Уже є певні центри комунікації з оборонними структурами, з міжнародними партнерами для оперативного реагування на інциденти, які стосуються ШІ, які спровоковані ШІ, бо чим далі, тим... їх буде більше, з урахуванням суспільно-політичної складової в нашій державі, військових дій та щоденних намагань ворога все більше нас дестабілізувати», - сказав Байов.
У цьому зв'язку він наголосив на необхідності інвестицій у технічні потужності, підготовки фахових слідчих та експертів із штучного інтелекту та цифрової криміналістики.
«Потрібно створювати лабораторії цифрової криміналістики, інструменти для детекції дипфейка та автоматизованого розпізнавання бот-мереж. Тут вже йдеться про експертні дослідження», - сказав представник кіберполіції.
За його словами, державні експертні судові установи ще не виділили як окремий напрямок експертизу, яка стосується ШІ.
«І зараз... довести (у разі скоєння злочину – ред.), чи це дійсно є ШІ, чи це є реальна особа, судова експертиза це нам не скаже. Це тільки приватні експертизи, які у кримінальних провадженнях не мають доказової бази», - зауважив Байов.
Він зазначив, що також дуже важливим є запровадження змін щодо регулювання вимог до платформ на базі ШІ і постачальників.
На його думку, в законодавстві необхідно запровадити таку дефініцію, як злочини із застосуванням штучного інтелекту.
«Це має бути комплексний підхід, починаючи від оновлення кримінального та процесуального законодавства, бо у нас наразі чітко не визначено «злочини із застосуванням ШІ». Потрібно визначати, що це – маніпуляції, масова дезінформація, автоматизована атака тощо», - сказав поліцейський.
Байов пояснив, що зараз класифікують напрямок вчинення злочинів із застосуванням ШІ як технологічно посилену кіберзагрозу.
«Вона може у собі поєднувати методи стандартних кіберзлочинів, таких як фішинг, поширення шкідливого програмного забезпечення, проведення DDOS-атак , використання бот-мереж тощо. І все це поєднується з автоматизованою генерацією контенту. Також це поєднується з соціально-інженерними кампаніями тощо», - заявив він.
Представник кіберполіції поінформував, що такі інциденти класифікувати за кількома вимірами, зокрема за цілями та наслідками. «Це можуть бути як і економічні втрати, шкода репутації, психологічний тиск, так і дестабілізація інформпростору та шкода нацбезпеці та оборони під час війни», - уточнив Байов.
За рівнем організації, за його словами, такі інциденти можна класифікувати як такі, що можуть створювати індивідуальні зловмисники або кримінальні мережі, тощо.
Як повідомляв Укрінформ, одними з найбільших загроз штучного інтелекту є дезінформація і масове поширення пропаганди, які генеруються за допомогою цієї технології.
Фото: ВМС











