Nová AI od Google tvoří krásná videa! Mrkněte na ukázky

Originál článek publikovaný na: Nová AI od Google tvoří krásná videa! Mrkněte na ukázky

Google představuje svůj nejlepší AI model pro tvorbu videí Nástroj s označením Veo tvoří záběry ve FullHD s délkou přes 60 sekund Prvním uživatelům se otevře už během následujících týdnů Google dnes v rámci konference I/O představil pokročilý model generativní umělé inteligence s označením Veo, za nímž stojí inženýři ze dceřiné výzkumné společnosti DeepMind. Nová…

Tak to vypadá hodně povedeně. Že by se SORA (od OpenAI), ze které ještě před pár týdny byli všichni “na větvi”, mohla jít klouzat?

1 Líbí se

Na mě osobně stále působí ukázky Sory detailněji a propracovaněji. Ale kdoví, jaká bude skutečnost :woman_shrugging:

Čím více DeepMind, tím více DeepFake. Takže mám spíše obavy.

Jirko s AI je to jako s dynamitem. Není dobrý ani špatný, záleží jen na tom, kdo a jak ho použije. V nadneseném slova smyslu se dá říci, že AI dokáže životy zachraňovat, stejně jako brát (obdoba dynamitu).

Rozdíl však je v tom, že dynamit je docela obtížné si sehnat a taky jeho použití je v mnoha případech nelegální. Ale deep fake mohou dělat snadno a rychle milióny lidí a žádný postih jim za to nehrozí. Deep fake je legální. A to vidím jako problém.

Pokud má být naše debata konstruktivní, nechytej mě prosím za slovo. Bylo to jen přirovnání pro lepší představivost a to je málokdy přesné.

Ohledně legálnosti Deep Fake, je fakt že zákonný rámec pro tuto konkrétní formulaci, pokulhává. Zkrátka technologický pokrok je rychlejší než legislativní restrikce. Ale už dnes se dá DeepFake postihnout. Vše záleží, zdali to děláš například na sociální sítě, pro pobavení, nebo se záměrem někoho poškodit.

Prostě se obávám velkých katastrof a to proto, že je úplně snadno bude moci provádět každý, kdo bude mít internet. Nic podobného nikdy nebylo, proto to nelze k ničemu přirovnat.

Opatrnost je v tomto případě určitě na místě :wink:

Preto si myslim aj pre takychto ludi ktori maju s toho strach tak by mali byt taketo fotky videa a vsetko co bude vytvorene alebo upravene AI tak by to malo byt oznacene vodoznakom alebo proste nieco aby ludia vedeli ze to nieje original

To je sice ušlechtilá myšlenka, ale pokud podvodník bude chtít podvádět, bude podvádět i v tom radovy AI vodoznaku.

To je vlastne tiez pravda. Bud fotku oreze alebo to nejako odstrani