РФ хоче використати фейкове відео Зеленського про нібито капітуляцію
Російські спецслужби планують запустити фальшиве відео із президентом України Володимиром Зеленським. "Змусити" людину говорити будь-які слова нині дозволяє штучний інтелект – технологія діпфейк.
Про це повідомляє Головне управління розвідки Міністерства оборони України.
"Росія вирішила використати технологію діпфейк у такий час, коли вона вважатиме, що Україна виснажена, й хоче здати свої державні інтереси. Але, по-перше, цього ніколи не станеться, а по-друге, ГУР володіє розвідданими, які кажуть про те, що у подібному відео може бути використано обличчя президента України Володимира Зеленського. Тому знайте: подібне відео буде фейком, мета якого посіяти паніку, дезорієнтувати, зневірити, схилити наші війська до капітуляції. Але як каже відоме прислів'я, "Хто володіє інформацією, той володіє світом". Тому ми, українці, вже запаслись попкорном, й з нетерпінням чекаємо на цей "шедевр" від Росії. Слава Україні! Разом до перемоги!", - ідеться в повідомленні.
Технологія діпфейк (англ. deepfake; поєднання слів deep learning (глибинне навчання) та fake (підробка) - методика синтезу зображення людини, яка базується на штучному інтелекті; її використовують для поєднання і накладення одних зображень та відео на інші зображення або відеоролики. На практиці ж це означає, що комп'ютерні алгоритми навчилися "оживляти" фотографії, синтезувати голос людини, замінювати обличчя на певному відео. У результаті утворюється контент, зовні який майже не відрізняється від реального.
Бажаєте дізнаватися головні новини Луцька та Волині першими? Приєднуйтеся до нашого каналу в Telegram!
Про це повідомляє Головне управління розвідки Міністерства оборони України.
"Росія вирішила використати технологію діпфейк у такий час, коли вона вважатиме, що Україна виснажена, й хоче здати свої державні інтереси. Але, по-перше, цього ніколи не станеться, а по-друге, ГУР володіє розвідданими, які кажуть про те, що у подібному відео може бути використано обличчя президента України Володимира Зеленського. Тому знайте: подібне відео буде фейком, мета якого посіяти паніку, дезорієнтувати, зневірити, схилити наші війська до капітуляції. Але як каже відоме прислів'я, "Хто володіє інформацією, той володіє світом". Тому ми, українці, вже запаслись попкорном, й з нетерпінням чекаємо на цей "шедевр" від Росії. Слава Україні! Разом до перемоги!", - ідеться в повідомленні.
Технологія діпфейк (англ. deepfake; поєднання слів deep learning (глибинне навчання) та fake (підробка) - методика синтезу зображення людини, яка базується на штучному інтелекті; її використовують для поєднання і накладення одних зображень та відео на інші зображення або відеоролики. На практиці ж це означає, що комп'ютерні алгоритми навчилися "оживляти" фотографії, синтезувати голос людини, замінювати обличчя на певному відео. У результаті утворюється контент, зовні який майже не відрізняється від реального.
Бажаєте дізнаватися головні новини Луцька та Волині першими? Приєднуйтеся до нашого каналу в Telegram!
Якщо Ви зауважили помилку, виділіть її та натисніть Ctrl+Enter для того, щоб повідомити про це редакцію
Інші новини теми
Доба війни: Генштаб доповів про ситуацію на усіх напрямках фронту
10 серпень, 2023, 08:52
Оприлюднили дані про втрати росії у війні за добу
08 серпень, 2023, 09:13
Відбулося 37 бойових зіткнень, ЗСУ знищили «Алігатор»: ситуація на фронті зранку 8 серпня
08 серпень, 2023, 08:45
На війні загинув волинянин Владислав Очеретко
04 серпень, 2023, 09:03
Коментарі 1
Якби він насправді так зробив, люди би роздерли його на дрібні шматочки.
Останні новини
В Ізюмі окупанти завдали удару багатоповерівці: загинули люди
03 березень, 2022, 03:35
У суді в Гаазі заявили про початок розслідування ситуації в Україні
03 березень, 2022, 03:11
РФ хоче використати фейкове відео Зеленського про нібито капітуляцію
03 березень, 2022, 02:50
Зеленський присвоїв звання Героя України 15 захисникам
03 березень, 2022, 02:21
Співробітниця СММ ОБСЄ загинула під час російського обстрілу Харкова
03 березень, 2022, 02:03