Съвети и трикове за идентифициране на видеоклипове или изображения, създадени с AI

Как да идентифицирате видеоклипове и изображения, създадени от AI

В последно време изкуственият интелект се превърна в тема на дискусия в множество области. От продуктивността на работното място до създаването на мултимедийно съдържание. Има техники и раздели, които трябва да имате предвид, за да идентифицирате видеоклипове или изображения, които са създадени с помощта на AI. В тази статия изследваме някои от най-известните и как да обърнем внимание на определени детайли и проблеми, за да избегнем deepfakes.

Първо трябва да разберете за какво се отнася терминът deepfake, как се създават и какви последици могат да имат. Видеоклиповете или изображенията, създадени от AI, могат да изглеждат изключително реални, но злоупотребата може дори да доведе до правни конфликти.

Видеоклипове или изображения, създадени от AI, какво е deepfake?

Лос Deepfakes са фалшиви видеоклипове и снимки, създадени от сложни алгоритми на изкуствения интелект.. Те се използват, за да изглежда, че човек прави или казва неща, които наистина не са се случили. Напредъкът на изкуствения интелект направи все по-трудно откриването на фалшиви видеоклипове. Творенията са почти незабележими, но има някои трикове за идентифициране на видеоклипове или изображения от AI, които могат да ви помогнат. Винаги приемайки, че не трябва да вярвате на всичко, което виждате в социалните мрежи.

Форма на лицето; уши и пръсти

Първата функция, на която трябва да обърнем внимание, за да се опитаме идентифициране на фалшиви видеоклипове е лицето. Формата на лицето и особено ушите могат да ви дадат представа дали видеото е фалшиво. Това се дължи на асиметрията на лицето, която е много сложна за идеална имитация с помощта на AI. Това е най-големият индикатор за манипулация и може да се долови особено в пръстите и ушите.

Крис Уме, известен създател на изображения с помощта на изкуствен интелект, каза пред канала на Corridor Crew в YouTube, че формата на лицето винаги разкрива улики. Най-голямото противоречие във фигурите на IA обикновено са ушите и пръстите. Ако можете да контрастирате реални изображения и deepfake видеоклипове или снимки, обърнете внимание на този детайл.

визуални неуспехи

Докато изображения и видеоклипове, създадени с AI Те могат да изглеждат изключително убедителни, има някои ъгли, където се появяват недостатъци. Най-често срещаното е, че се възприемат, когато обърнем изображението на една страна. Независимата организация Full Fact е посветена на проверката на данните в Обединеното кралство и препоръчва „да се забави видеото, за да се открият възможни грешки в AI технологията“. Това е така, защото има специфични точки и моменти, в които технологията на изкуствения интелект не съвпада напълно с реалната част на видеото.

Изражения и жестове, създадени от AI във видеоклипове или изображения

Друг ключ към откриване на променени от AI изображения Те са израженията и жестовете. Този тип информация е известна като мека биометрия и може да помогне за откриване на несъответствия в хората. Във видеоклипове и изображения за известни хора е много по-често да се откриват тези несъответствия в работата на AI инструментите.

Технологиите „Deepfake“ все още имат проблеми с откриването на тези жестове. Ето защо там обикновено се откриват несъответствия или точки без контакт. Това е интересен раздел за анализиране и опит за откриване дали е истинско видео или не.

подравняване на очите

Обръщането на внимание на това как очите са подравнени също може да бъде много полезно за откриване на опити за измама с изкуствен интелект. Опитайте да увеличите мащаба и да поставите видеоклипа на пауза в различни моменти. Ако очите не се фокусират в същата посока, това може да е промяна, дължаща се на изкуствен интелект. Синхронизирането на очите е друг детайл, в който се забелязват недостатъци. AI технологията все още не може да поддържа постоянно тази синхронизация на човешкото тяло. Според Ume това се забелязва по-лесно в неподвижни кадри.

Избягвайте deepfakes

Синхронизация на глас и видео

И накрая, ключов сигнал за идентифицирайте deepfakes Това е правилната синхронизация между глас и видео. Това се дължи на формата, която приема устата, когато произнасяме определени звуци. Технологията за изкуствен интелект обикновено има проблеми с правилното синхронизиране на тези видове звуци. Когато става въпрос за откриване дали видео или снимка са били цифрово манипулирани, това е добър инструмент.

Заключения

Във времената на пост-истината, откриването дали видеоклипът е истински или е бил манипулиран е от съществено значение. Когато видите изображение или видео и имате съмнения, не забравяйте да потърсите в други източници и да проверите дали има и снимки от други ъгли. Интернет е страхотен инструмент, но има хора, които разпространяват невярна информация, опитвайки се да съсипят репутацията на хората или просто да си правят шеги. Ето защо трябва да вземем предвид някои мерки, които ни позволяват да потвърдим истинността на снимка или видео. В противен случай изкуственият интелект в крайна сметка се превръща в опасен инструмент в зависимост от употребите, които потребителите решават да му дадат. С тези техники можете да сте малко по-подготвени за откриване на deepfakes.


Оставете вашия коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

*

*

  1. Отговаря за данните: Actualidad Blog
  2. Предназначение на данните: Контрол на СПАМ, управление на коментари.
  3. Легитимация: Вашето съгласие
  4. Съобщаване на данните: Данните няма да бъдат съобщени на трети страни, освен по законово задължение.
  5. Съхранение на данни: База данни, хоствана от Occentus Networks (ЕС)
  6. Права: По всяко време можете да ограничите, възстановите и изтриете информацията си.