Deepfake — это технология, подделывающая лица на видео с помощью искусственного интеллекта. В основном она используется со злым умыслом, например для создания фальшивых порнографических видео со знаменитостями или распространения фейковых новостей. Отличить их от настоящих видео невооружённым взглядом крайне сложно.
Проверить видео на наличие признаков дипфейка поможет сервис deepware.ai. Он анализирует все лица на видео и в результате выдаёт вероятность подделки в процентном соотношении, а так же все проанализированные кадры.
Проверить можно, например, с помощью дипфейка с Бараком Обамой — по результатам анализа вероятность подделки 97%. Стоит отметить, что знаменитости чаще всего становятся жертвами DeepFake, так как для обучения искусственного интеллекта требуется большое количество видеоматериала.