Зображення користувача Оксана Колосовська.
Оксана Колосовська
  • Відвідувань: 0
  • Переглядів: 0

Як штучний інтелект може розв’язати війну з допомогою фейкових новин

Світ:

Кордони цифрового світу розширюються, а разом зі стрімким розвитком можливостей штучного інтелекту зростає і занепокоєння щодо його використання у створенні й поширенні фейкових новин. Навіть у текстовій формі дезінформація та боротьба з нею стали справжнім викликом сьогодення, але що робити, коли предметом маніпуляції можуть стати сфабриковані відео-звернення лідерів країн, які можуть публічно закликати, наприклад, до бойових дій?

Більшість людей уже звикла до багатьох форм маніпуляцій зображеннями: додаток на смартфоні сьогодні за лічені хвилини може допомогти змінити будь-які деталі фотографії або ж, наприклад, обмінятися обличчями з будь-якою особою, включаючи політиків, і почати говорити від їхнього імені. Але ці зображення (та відео) зазвичай дуже легко відрізнити від реальних, як мінімум, через недосконале зображення.

Однак можливості штучного інтелекту вже досягли рівня, коли він здатен генерувати надзвичайно реалістичні фото та відео людей, справжність яких складно перевірити навіть йому самому.

Нам часто казали не вірити всьому, що ми читаємо, але скоро нам потрібно буде почати сумніватися в усьому, що ми бачимо й чуємо

The Guardian

Експерти попереджають: незабаром штучний інтелект зможе якісно підроблювати не лише фото, але й аудіо, що суттєво ускладнить боротьбу із фейковими новинами та дезінформацією.

Проблематика фейкових відео

Американська корпорація Nvidia ще в жовтні минулого року продемонструвала спроможність її штучного інтелекту створювати «тривожно реалістичні образи людей, яких не існує», йдеться у виданні Futurism. Пізніше цей штучний інтелект уже навчився маніпулювати відеозображеннями, перетворюючи день на ніч, зиму на літо або сонячний день на дощовий.

Сьогодні Nvidia інвестує великі гроші в дослідження можливостей штучного інтелекту. Команда дослідників корпорації розробила систему, здатну створювати зображення облич на основі аналізу тисяч фотографій відомих людей, і знаходити схожі риси, пояснюють Кейд Мец та Кейт Коллінс у статті для The New York Times. Ця система спроможна генерувати надзвичайно реалістичні й чіткі зображення тварин, рослин і багатьох інших предметів, які відрізнити від реальності дуже складно.

Більш того, поки одна нейромережа створює нові обличчя, інша – намагається виявити, чи ці зображення справжні чи підробні: «по суті, одна система працює якнайкраще для того, щоб перехитрити іншу, яка робить усе можливе для того, щоб не дати себе надурити», – пояснюють автори.

І якщо першочерговою метою дослідників було покращення комп’ютерних інтерфейсів та відеоігор, у часи, коли фейкові новини є серйозною проблемою, запровадження таких технологій, ймовірно, надзвичайно ускладнить можливість відрізняти правду від підробок – технології лише поглиблять проблеми з дезінформацією.

Та річ у тім, що такі «таланти» штучного інтелекту доступні не лише дослідникам великих корпорацій. Як повідомляється у виданні The Independent, нещодавно користувач соціальної мережі Reddit використав можливості штучного інтелекту для того, щоб високоякісно замінити обличчя порноакторки на обличчя актриси Ґал Ґадот, яка була головною героїнею фільму «Диво-жінка».

Алгоритм дозволив «накласти» обличчя акторки на відео, і відрізнити підробку стало досить складно. І тут виникає певна проблема: «алгоритми не турбуються про згоду, конфіденційність чи законність» таких речей, мовиться в статті.

Як повідомляє газета The Daily Mail, такий випадок уже не перший. Видання звертає увагу на те, що «аматорське відео має тривожні наслідки, показуючи, як вільно доступні ресурси можуть бути використані для створення підроблених фільмів упродовж декількох днів чи навіть годин».

«Голосовий фотошоп», що може розв’язати війну

В статті для Wired Вільям Веслер звертає особливу увагу на проблематику відтворення штучним інтелектом не тільки фейкових фото чи відео, але й аудіо.

Найбільшою втратою, спричиненою штучним інтелектом, стане повне знищення довіри до будь-чого, що ви бачите або чуєте

Вільям Веслер

Проект Adobe Voco наразі розробляє програму, яку вже встигли назвати «голосовим фотошопом»: вона замінює «сигнали для пікселів, щоб створити те, що природно звучить. Компанія робить ставку на те, що в разі, якщо є достатня кількість запису мовлення людини, для зміни запису її голосу потрібно буде зробити трохи більше, ніж «вирізати й вставити», – пояснює Веслер.

Просто уявіть собі наслідки підробленого голосу світового лідера, який робить войовничі заяви, підкріплені фальсифікованими відео

Вільям Веслер

Не дивлячись на очікувані прибутки від технології, вона може мати вкрай негативні наслідки і навіть призвести до війни, наголошує автор. Заміну голосу можуть почати широко використовувати для того, щоб обдурити чи збити людей з пантелику:

Чи зможуть у 2018 році громадяни, або військові генерали, визначити, що є фальшивка? – запитує Веслер.

Професор Хані Фарід, експерт з виявлення фейкових фотографій та відеороликів, особливо «стурбований тим, як швидко поширюється вірусний контент, і наскільки повільним є процес перевірки.

Фарід уявляє найближче майбутнє, в якому переконливий фальшивий відеоролик, де президент США Дональд Трамп наказує повне ядерне знищення Північної Кореї, стає вірусним і викликає паніку, подібно до перевидання фільму «Війна світів» в епоху штучного інтелекту», – йдеться у виданні Wired.

Штучний інтелект знає, як змусити вас плакати

Більш того, штучний інтелект зможе не просто маніпулювати аудіо та відео зображеннями, але й знатиме, як найкраще викликати у людей сильні емоції. Як повідомляє консалтингова компанія McKinsey & Company, дослідники вирішили дати глибокій нейронній мережі передивитися тисячі коротких стрічок, щоб та виявила, які саме моменти в фільмах є особливо емоційними. Потім вони випробували рішення штучного інтелекту на справжніх людях, які підтвердили результат машини.

Це свідчить про те, що незабаром компанії за допомогою штучного інтелекту вироблятимуть контент, який маніпулюватиме людськими емоціями краще, ніж міг би вигадати будь-який режисер. Та серед дослідників уже є певні побоювання, що таку ж саму методологію почнуть використовувати медіакорпорації і держави для власних цілей.

Експерти погоджуються, що, певно, ніщо не може зупинити хвилі контенту, створеного штучним інтелектом, який використовуватимуть також і в політичних цілях. На думку Сандри Упсон у статті для Wired, з розвитком штучний інтелект «все більше імітуватиме людські дії. Врешті-решт, у нього немає іншого вибору, окрім як стати зовсім людським: схильним до добра і зла однаковою мірою».

Наші інтереси: 

Критично сприймати інформацію. Формувати соціальну структуру, стійку до інформаційної агресії. Демоси - це соціальні клітини з інформаційними мембранами.   

Якщо ви помітили помилку, то виділіть фрагмент тексту не більше 20 символів і натисніть Ctrl+Enter
Підписуюсь на новини

Зверніть увагу

Ласкаво просимо до церкви програмістів Aryan Softwerk

Стартап Aryan Softwerk запрошує ІТ-фахівців спільноти Народний Оглядач до освоєння ринку самоорганізації арійських церков

Метою «церкви програмістів» Aryan Softwerk є колективне досягнення Царства божого шляхом розробки софту для самоорганізації шляхетних духовних демосів – арійських церков. Розробка церковного софту –...

Останні записи

Кращий коментар

Зображення користувача Явсе Світ.
0
Ще не підтримано

Штучний інтелект є вінцем творіння технократії.Якщо він призведе до війни,яка заставить піти іншим шляхом розвитку тих,хто у ній виживе;то можна говорити,що збочена технократія стала аналогом Вавилонської вежі.

Вірю в те, що розумію.

Коментарі

Зображення користувача Явсе Світ.
0
Ще не підтримано

Штучний інтелект є вінцем творіння технократії.Якщо він призведе до війни,яка заставить піти іншим шляхом розвитку тих,хто у ній виживе;то можна говорити,що збочена технократія стала аналогом Вавилонської вежі.

Вірю в те, що розумію.

Зображення користувача Михайло Харачко.
0
Ще не підтримано

Парадоксально, але це лише посилить позиції правдивої інформації в інформаційній війні. Все дуже просто: світовий олігархат через свої ЗМІ давно використовує технології масового поширення хуцпи. А ІНФОРМОВАНІСТЬ ЛЮДЕЙ про появу такого потужного інструменту спотворення інформації лише підірве довіру до їх ЗМІ і примусить критично ставитися до всього що говорять і показують.

Сидить Мамай, в кобзу грає, що замислить - то все має.