0

Будут ли Deepfakes частью нашей жизни?

Будут ли Deepfakes частью нашей жизни?

Deepfake это метод замены изображения или видео человека другим.
В настоящее время мы видим множество мемов, фотошопов. Deepfake другого уровня. Deepfake генерирует визуальный контент с помощью машинного обучения и искусственного интеллекта. Deepfake это в основном Deeplearning. Какого черта! Здесь так много жаргонов.
Deeplearning использует искусственную нейронную сеть в основном. Сеть создана для обучения и импровизации обучения. Сеть часто контролируется, частично контролируется или не контролируется. В конечном итоге он стремится к совершенству в обучении и формировании предсказательного результата.
Для Deepfake результат почти «идеальный».

Deepfake началась как эксперимент AI и пойманной внимание общественности через обмениваемое лицо знаменитости в порно в начале 2017. пользователя Reddit под названием «Deepfake» облученного интернет в 2017 году с подделкой знаменитости порно видео. Он сделал это, используя инструменты машинного обучения с открытым исходным кодом.
Наложенная вещь не была новой. Но совершенство и простота процесса были поразительны. С тех пор Deepfaking приобрел большую популярность. В июле 17 года исследователи из Вашингтонского университета разработали алгоритм глубокого подделки и превратили аудиоклипы в реалистичное видео с синхронизацией по губам тогдашнего президента США Обамы. Это стало вирусным мгновенно.
Да, Deepfaking начал путешествие из лаборатории академика, но после этого стал доступным для конечного пользователя.

Deepfakes стали чрезвычайно фотореалистичными. ИИ может генерировать любые выражения лица. DeepNude это приложение, созданное анонимным разработчиком. Он был в состоянии раздеваться на одетый женщина и создать порно видео с этого. Спорные приложение было снято после запуска в 2019 году не только знаменитости но и общий парень может стать жертвой deepfaking. Как это звучит?

Технология и благо, и проклятие. Deepfaking может иметь катастрофические последствия для человека. Это может сыграть ключевую роль и в международной дипломатии. Представьте себе эффект от фальшивого видео, на котором изображен президент Китая Си Цзиньпин, объявляющий, что COVID19 был изготовлен в китайской лаборатории. До того, как появится реальная реальность, видео будет пересылаться в социальных сетях миллион раз и будет иметь волновые эффекты.
Технология развивается быстрыми темпами, и зачастую трудно понять разницу между оригиналом и Deepfake. Какой выход?
Alethea AI вирусный создатель DeepFake, создает инструменты AI для идентификации DeepFake. Они хотят записать глубокие хлопья в блокчейне и сделать его неизменным. ИИ будет использоваться для получения данных из блокчейна и предоставления точных результатов о фальшивом запросе. Это интересно.
Нам нужен ИИ, чтобы бороться с ИИ! Традиционная база данных может быть подделана в любое время. Только блокчейн может предоставить необходимый набор данных для обучения алгоритму ИИ.
Amber Video это одна из компаний, которая борется с фальшивками с помощью своей современной платформы для криминалистической экспертизы. Их платформа работает на блокчейне Ethereum. Они делают видео снятие отпечатков пальцев у источника. Это означает, что они криптографически хешируют видео в источнике, прежде чем войти в блокчейн, чтобы определить, было ли видео подделано или нет.
Технология должна развиваться. Это неоправданно и невозможно запретить технологию. Когда-то президент Кубы Фидель Кастро запретил использование мобильных телефонов на Кубе из-за подозрения, что эта технология будет использоваться США для слежки. Они должны были снять запрет в конечном итоге в 2008 году. Мы не можем вернуться назад. Нам нужно принять глубокое подделывание.
Deepfaking создаст новое поле для развлечений. Он уже используется в некоторых цифровых играх. Представьте себе создание идеального аватара с точными выражениями и участие в многопользовательской боевой игре с VR. Это может быть так реально! Синтетическое содержание войдет в вашу жизнь очень скоро, чтобы развлекать вас различными способами. Но да, нам нужно тщательно проверять, чтобы не злоупотреблять. Deepfakes здесь, чтобы остаться. Прими это!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *