Tech HVG 2024. július. 02. 10:03

Van egy új lehetőség a YouTube-on, de ha használnia kell, már kész a baj

Mostantól panaszt nyújthat be a YouTube-nak, ha úgy érzi, visszaéltek a képmásával, és egy mesterséges intelligenciával generált deepfake-videóban szerepel az arca vagy a hangja. Van azonban néhány kritérium.

Leszámolna a YouTube a mesterséges intelligenciával létrehozott, úgynevezett deepfake-tartalmakkal, melyeken akár az ön arcát is rá tudják illeszteni bárki testére, de akár a hangját is képesek utánozni. A platform már egy ideje megköveteli a tartalomgyártóktól, hogy jelöljék meg a videóknál, ha azok valósághűnek tűnnek, de valójának vannak benne MI-generált részek is.

Most egy újabb lehetőséggel bővül a YouTube eszköztára az ilyen tartalmak kiszűrésére, ugyanis ezentúl ön is bejelentheti, ha szembejön egy deepfake videó, melyben az arca vagy hangja köszön vissza – de nem adta a beleegyezését ehhez.

A YouTube egy új támogatási oldalon magyarázza, milyen tényezőket vesz figyelembe, amikor elbírálja a panaszt – szúrta ki a TechCrunch. Ezek a következők:

  • a tartalom módosított vagy szintetikus-e,
  • a tartalom módosítottként vagy szintetikusként jelenik-e meg a nézők számára,
  • a személy egyedileg azonosítható-e,
  • a tartalom valósághű-e,
  • a tartalomban szerepel-e paródia, szatíra, vagy megtestesít-e közérdeket,
  • a tartalomban szerepel-e közszereplő vagy ismert személy kényes jellegű viselkedéssel (például bűncselekmény, erőszak, illetve termék vagy politikai jelölt támogatása).

A panaszt az alábbi oldalon lehet benyújtani. Fontos, hogy ezt csak az érintett maga végezheti el, senki más – még családtag sem. Kivételt csak néhány eset jelent, például az, ha a sértettnek nincs hozzáférése az internethez, sebezhető személy, vagy már elhunyt az illető.

Mégis mi olyan dermesztően félelmetes a videóban, ahol 10 ember egyszerre beszél? Hát az, hogy valójában egyikőjük sem szólalt meg

Egy hangfelvétel köré csak egy állóképet kell mellékelni a Google új modelljének, a Vloggernek, és az el is készíti a videót, melyen úgy tűnik, mintha az adott személy tényleg beszélne.

Az is fontos, hogy valóban hasonlítania kell a videóban szereplő személynek önre, méghozzá egyértelműen. A videó feltöltőjének 48 órája lesz, hogy eleget tegyen a panasznak, avagy úgy módosítsa a tartalmat, hogy az ne sértse a benyújtó jogait.

Hogy mekkora problémát jelent a deepfake, arról itt írtunk bővebben.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

hvg360 Medvegy Gábor 2025. február. 27. 19:58

„Ma olyan csekélységek miatt lesznek öngyilkosok, hogy az már valósággal megdöbbentő”

Egy tatai molnár atomnagyhatalommá akarta tenni 1925-ben a Trianon miatt gyászba borult országot, feldühödött matyók pedig máglyára vetették a cseh és osztrák giccset, ha lehet hinni az akkori lapok tudósításainak. Észak-Magyarországot károkat okozó, súlyos földrengés rázta meg, Nagyváradon pedig elképesztő hanyagság miatt robbant fel egy vonat. Száz éve arra is kereste a választ a sajtó, hogy spiritiszta volt-e Kossuth Lajos, és hírt adtak arról a holdfogyatkozásról, amiről még a csillagászok is megfeledkeztek.