Технологии, медиа и общество

@brodetsky Yoqdi 5 15 000

Привет, я Андрей Бродецкий, журналист. Пишу о технологиях и о том, как они меняют мир.
Связь: @politehnik
Блог: @brodetsky_2
Реклама: http://bit.ly/ad-faq
(рассмотрите также канал @denissexy)
Kanal hududi va tili
Rossiya, Rus tili
Kategoriya
Texnologiyalar


Muallifga yozish
Kanalning hududi
Rossiya
Kanal tili
Rus tili
Kategoriya
Texnologiyalar
Indeksga qo‘shilgan
09.05.2017 23:31
6 Mar 2018, 20:38 (1132 kun oldin)
Недавно в интернете появился софт, позволяющий создавать реалистичные видеофейки с помощью нейросетей. Довольно быстро случилось то, что и должно было случиться: люди начали накладывать на порноролики лица знаменитостей и своих знакомых. Pornhub и Reddit даже запретили публикацию подобных видео - фактически это non-consensual porn (порно, опубликованное без согласия того, кто на видео). Медиа отреагировали на новую технологию волной моральной паники: мол, мы входим в новую эру фейков, когда с каждым можно быстро склепать порноролик, любое видеодоказательство теперь можно будет подделать, верить ничему нельзя.

Журналист New York Times Кевин Руз решил проверить, насколько обоснованы такие опасения. Вместе с коллегой-программистом он попробовал перенести с помощью FakeApp своё лицо на видео с разными голливудскими звёздами (без порно). Что из этого получилось, смотрите по ссылке. Спойлер: без сноровки хорошее видео не получается, но опытный создатель фейков может очень хорошо подогнать лицо под видео. Надо только много фотографий обоих людей и вычислительные мощности для работы нейросети.

Ранее Кевин Руз проводил другой интересный эксперимент: он заказал нескольким хакерам взломать самого себя. Получилось интересно!

И ещё про нейросетевые фейки:

Управление мимикой Трампа на видео на лету

Алгоритм генерирует видео с Обамой на основе аудио

Что такое генеративные нейросети и как нам подготовиться к новому поколению фейков