Użytkownicy będą mogli również zażądać usunięcia wygenerowanych filmów z prawdziwymi ludźmi.

Usługa hostingu wideo „w nadchodzących miesiącach” będzie wymagała od twórców zgłaszania wykorzystania sztucznej inteligencji do tworzenia „realistycznych” treści, poinformowała firma na swoim blogu. Filmy przedstawiające wydarzenia, które nie miały miejsca lub działania prawdziwych ludzi, których nie wykonali, będą uważane za takie.

Podczas przesyłania wideo na platformę autorzy będą mogli powiadomić widzów o wykorzystaniu sztucznej inteligencji. Odpowiedni znacznik będzie wyświetlany w odtwarzaczu lub opisie filmu. Wygenerowane filmy, które pokazują przemoc lub zawierają szokujące sceny, zostaną usunięte niezależnie od obecności oznaczenia.

W przypadku systematycznego naruszania zasad, treści mogą zostać wykluczone z programu monetyzacji afiliacyjnej lub po prostu usunięte. Firma pracuje nad narzędziami, które pozwolą ustalić, czy autorzy spełniają wymagania dotyczące ujawniania informacji, wyjaśnił wydaniu The Verge przedstawiciel YouTube. Jednak, jak zauważa publikacja, nie ma jeszcze skutecznych sposobów, aby to zrobić.

Użytkownicy będą mogli również zażądać usunięcia wideo stworzonego przez sztuczną inteligencję, jeśli przedstawia ono prawdziwą osobę, w tym jej twarz lub głos. Wytwórnie muzyczne będą mogły składać podobne wnioski o usunięcie treści, które „naśladują unikalny głos artysty”.