Originál článek publikovaný na: Nová AI od Google tvoří krásná videa! Mrkněte na ukázky
Google představuje svůj nejlepší AI model pro tvorbu videí Nástroj s označením Veo tvoří záběry ve FullHD s délkou přes 60 sekund Prvním uživatelům se otevře už během následujících týdnů Google dnes v rámci konference I/O představil pokročilý model generativní umělé inteligence s označením Veo, za nímž stojí inženýři ze dceřiné výzkumné společnosti DeepMind. Nová…
Tak to vypadá hodně povedeně. Že by se SORA (od OpenAI), ze které ještě před pár týdny byli všichni “na větvi”, mohla jít klouzat?
Na mě osobně stále působí ukázky Sory detailněji a propracovaněji. Ale kdoví, jaká bude skutečnost
Čím více DeepMind, tím více DeepFake. Takže mám spíše obavy.
Jirko s AI je to jako s dynamitem. Není dobrý ani špatný, záleží jen na tom, kdo a jak ho použije. V nadneseném slova smyslu se dá říci, že AI dokáže životy zachraňovat, stejně jako brát (obdoba dynamitu).
Rozdíl však je v tom, že dynamit je docela obtížné si sehnat a taky jeho použití je v mnoha případech nelegální. Ale deep fake mohou dělat snadno a rychle milióny lidí a žádný postih jim za to nehrozí. Deep fake je legální. A to vidím jako problém.
Pokud má být naše debata konstruktivní, nechytej mě prosím za slovo. Bylo to jen přirovnání pro lepší představivost a to je málokdy přesné.
Ohledně legálnosti Deep Fake, je fakt že zákonný rámec pro tuto konkrétní formulaci, pokulhává. Zkrátka technologický pokrok je rychlejší než legislativní restrikce. Ale už dnes se dá DeepFake postihnout. Vše záleží, zdali to děláš například na sociální sítě, pro pobavení, nebo se záměrem někoho poškodit.
Prostě se obávám velkých katastrof a to proto, že je úplně snadno bude moci provádět každý, kdo bude mít internet. Nic podobného nikdy nebylo, proto to nelze k ničemu přirovnat.
Opatrnost je v tomto případě určitě na místě
Preto si myslim aj pre takychto ludi ktori maju s toho strach tak by mali byt taketo fotky videa a vsetko co bude vytvorene alebo upravene AI tak by to malo byt oznacene vodoznakom alebo proste nieco aby ludia vedeli ze to nieje original
To je sice ušlechtilá myšlenka, ale pokud podvodník bude chtít podvádět, bude podvádět i v tom radovy AI vodoznaku.
To je vlastne tiez pravda. Bud fotku oreze alebo to nejako odstrani