rysiek, Polish
@rysiek@mstdn.social avatar

Dziś w piszę o użyciu przez PO deepfejków:
https://oko.press/deepfejki-w-kampanii-wyborczej-po-morawiecki

> Stworzenie i promowanie przez Platformę Obywatelską deepfejka premiera Morawieckiego w ramach kampanii wyborczej jest przekroczeniem Rubikonu. Wprowadzenie tego narzędzia do walki politycznej jest nieodpowiedzialne i nieetyczne.

> Problemem nie jest samo wykorzystanie sztucznie wygenerowanego nagrania. Problemem jest fakt, że celowo wygenerowany został głos podobny do złudzenia do głosu premiera.

🧵

74,
@74@101010.pl avatar
rysiek,
@rysiek@mstdn.social avatar

@74 o, no proszę.

Czym jest Stan Gry na 300Polityka? 🤷‍♀️

74,
@74@101010.pl avatar
rysiek,
@rysiek@mstdn.social avatar

@74 hah, fajno, dzięki za wyjaśnienie!

rysiek,
@rysiek@mstdn.social avatar

> To nie komputer „podłożył” sfabrykowany głos szefa rządu.

> Ktoś zdecydował, żeby zasymulować głos premiera Morawieckiego. I podjął decyzję, by tych nagrań użyć potem w filmikach wyborczych. Ktoś zdecydował też, że te filmiki będą udostępnione. Za stworzenie i opublikowanie deepfejków ze sfabrykowanym głosem prezesa Rady Ministrów nie odpowiada „komputer", tylko konkretni ludzie zaangażowani w kampanię wyborczą PO.

> Jako wyborca chciałbym wiedzieć: kto dokładnie?

🧵

rysiek,
@rysiek@mstdn.social avatar

> Każda kampania wyborcza w jakimś stopniu opiera się na manipulacjach. Mimo to pewne działania uchodzą za niedopuszczalne (poza kontekstem parodii).

> Na przykład publikowanie nieistniejących, sfabrykowanych cytatów przeciwników politycznych — nawet jeśli brzmią zupełnie jak coś, co dany polityk faktycznie mógłby napisać.

> Publikowanie sztucznie spreparowanego nagrania czyjegoś głosu, choćby i opartego na czymś, co ta osoba faktycznie napisała, jest podobnie niedopuszczalne

🧵/koniec

pfm,
@pfm@edolas.world avatar

@rysiek Moim zdaniem jest to nieodpowiedzialne również dlatego, że partia z jako-taką szansą na wytrącenie władzy z rąk partii rządzącej, podejmuje ryzyko pogłębienia kryzysu frekwencyjnego, który obserwujemy od lat. Nie trzeba być geniuszem żeby dostrzec, że to jest miecz obosieczny…

rysiek,
@rysiek@mstdn.social avatar

@pfm absolutnie. Piszę m.in.:

> Nawet jeśli spojrzymy na sprawę zupełnie cynicznie, wyłącznie pod kątem skuteczności w walce politycznej, trudno tę kampanię nazwać sukcesem.

> Zamiast rozmawiać o przekazie — o tym, czy premier jest dwulicowy; o pęknięciach i tarciach w Zjednoczonej Prawicy; o mailach Michała Dworczyka — rozmawiamy o problematycznym narzędziu, oraz tym czy i na ile jego wykorzystanie było nieetyczną manipulacją.

rcz,
@rcz@101010.pl avatar

@rysiek moim zdaniem się mylisz.
To „podobnie” na końcu jest bardzo naciągane. Nie, to nie jest „podobnie” jak publikowanie sfabrykowanych cytatów.

Zgadzam się, że należy od początku zwracać uwagę na jasne oznaczanie sztucznych głosów. Ale Rubikon nie jest w miejscu wykorzystania tej a nie innej techniki syntezy mowy. Rubikon jest we wprowadzaniu w błąd.

To dlatego niedopuszczalne są sfabrykowane cytaty które ktoś „mógłby” wypowiedzieć.

PO zrobiła błąd, nie dodając od razu w spocie oznaczenia że głos jest sztuczny, to prawda — ale też ewidentnie nie był to spot obliczony na wprowadzenie widza w błąd, że to prawdziwe, nagrane głosy Morawieckiego i Obajtka. Trzeba by dużo złej woli, by tak odczytać ten spot. Było w nim jasno wskazane, że to są treści z maili.

Stawianie znaku równości między tym co tu zaszło a przypisywaniem komuś zmyślonych cytatów to nadużycie. Jeśli, hipotetycznie, jutro PiS zrobi spot z głosem Tuska wypowiadającyn zmyślone cytaty, to chyba jednak będziemy w stanie wskazać Rubikon manipulacji fejkiem bardzo wyraźnie i jednoznacznie znajdujący się pomiędzy tymi spotami. Czy nie?

rcz,
@rcz@101010.pl avatar

@rysiek TL;DR: skupiając się na technologii, tracisz z oczu kluczową kwestię wprowadzania w błąd.

rcz,
@rcz@101010.pl avatar

@rysiek Swoją drogą, ta definicja deep fake jako „każda synteza używająca DL” też jest zbyt upraszczająca, zwłaszcza w kontekście regulacyjnym czy moralnym. Por. np. https://arxiv.org/pdf/2208.10913.pdf

rysiek,
@rysiek@mstdn.social avatar

@rcz i dlatego ja takiej definicji nie użyłem.

> Termin ten odwołuje się do głębokiego uczenia maszynowego (ang. „deep machine learning”), oraz słowa „fake”, czyli „fałsz”, „fałszywy”.

> Nagrania głosu przypominającego głos premiera Morawieckiego powstały przy pomocy narzędzia opartego o głębokie uczenie maszynowe. Same nagrania są „fałszywe” w tym sensie, że nie są faktycznym nagraniem głosu szefa rządu. Są sfabrykowane.

Aczkolwiek dzięki za dobry pejper! 👍

AubreyDeLosDestinos,
@AubreyDeLosDestinos@101010.pl avatar

@rysiek @m0bi13,

“It's not the hands that called us, it's lust.” (Pinhead in “Hellbound: Hellraiser”)

aemstuz,
@aemstuz@pol.social avatar

@rysiek Nie rozumiem, czemu tylu ludzi nazywa to deepfejkiem. Owszem, Morawiecki nie powiedział tego na głos. Ja bym jednak zarezerwował to słowo dla sytuacji, gdzie intencją jest przekonanie odbiorcy o prawdziwości wypowiedzi, która nie miała miejsca. Tutaj zmieniono tylko medium z pisma na dźwięk, ale sam mail jest, z tego co rozumiem, prawdziwy.

rysiek,
@rysiek@mstdn.social avatar

@aemstuz widzisz, dlatego warto przeczytać mój tekst. Wyjaśniam w nim, że:

  • deepfake to zbitka "deep machine learning" i "fake".

  • nagranie audio zdecydowanie było wygenerowane przez system oparty o głębokie uczenie maszyowe.

  • nagranie audio zdecydowanie nie było prawdziwe.

Mail może i jest prawdziwy (choć pamiętajmy, że udostępnia te maile jakaś strona, nikt niezależnie tego nie może zweryfikować). Ale nagranie audio zdecydowanie prawdziwe nie jest.

Jak najbardziej "deepfake".

aemstuz,
@aemstuz@pol.social avatar

@rysiek Ależ przeczytałem. Uważam, że jakkolwiek byśmy tego nie nazwali, stanowczo powinniśmy rozróżnić te dwie sytuacje, kiedy ktoś używa AI do oszustwa, a koedy ktoś robi to jedynie dla uatrakcyjnienia przekazu. Tu mamy do czynienia z tą drugą sytuacją i ja nie widzę w tym nic złego. Rozumiem obawy, że to będzie eskalować (i pewnie będzie), ale mimo tego nie potępiam etycznego użycia AI, bo może ktoś, kiedyś będzie manipulował.

rysiek,
@rysiek@mstdn.social avatar

@aemstuz

> Uważam, że jakkolwiek byśmy tego nie nazwali, stanowczo powinniśmy rozróżnić te dwie sytuacje, kiedy ktoś używa AI do oszustwa, a koedy ktoś robi to jedynie dla uatrakcyjnienia przekazu.

Pewnie.

> Tu mamy do czynienia z tą drugą sytuacją i ja nie widzę w tym nic złego.

Tu bardzo ostro się nie zgadzam. Bo tak jak napisałem, tekst nie zawiera tyle informacji, ile nagranie audio, a to nagranie audio było sfabrykowane. Jest fałszywką, mającą na celu manipulować emocjami.

rysiek,
@rysiek@mstdn.social avatar

@aemstuz jest ważna różnica między tekstem a nagraniem audio. Nagranie audio zawiera emocje w głosie, tembr, szybkość wypowiedzi — to wszystko jako odbiorcy interpretujemy w konkretny sposób.

Innymi słowy nagranie audio zawiera więcej informacji, niż tekst.

Sfabrykowanie nagrania audio oznacza sfabrykowanie tych informacji, dodanie ich do tekstu. Z samego tekstu się ich nie wyciągnie, bo ich tam po prostu nie ma.

Czy premier "krzyczał" w tym mailu? A może "szeptał"?..

A więc znów: fejk.

rysiek,
@rysiek@mstdn.social avatar

@aemstuz i nie ma znaczenia, czy to głos wygenerowany przez algorytm, czy głos lektora starającego się imitować głos premiera. Morawiecki tego nie powiedział, tylko napisał. Jakby użyty głos był wyraźnie inny, niż jego, nie byłoby to aż tak jednoznacznie manipulacją. I nie byłoby deepfejkiem.

aemstuz,
@aemstuz@pol.social avatar

@rysiek Nad tym rzeczywiście się nie zastanawiałem 🤔

Jak nad tym myślę, to przypomina to manipulacje, jakie zdarzają się w mediach - po prostu zwykłym cytacie, umieszczonym w odpowiednim kontekście (np. słynne „für Deustchland”).

Rzeczywiście przekonałeś mnie, że to jest manipulacja (choć nie kłamstwo).

rysiek,
@rysiek@mstdn.social avatar

@aemstuz pełna zgoda.

Jednym z powodów mojego wkurzenia na PO za tego deepfejka jest fakt, że odciąga uwagę od przekazu.

Morawiecki to (prawdopodobnie) napisał, warto to przypominać. Zamiast tego gadamy o zupełnie niepotrzebnej manipulacji. Przecież filmik byłby równie mocny, a może mocniejszy, jakby użyto lektora-z-dramatycznym-głosem, na przykład. 🙄

robryk,
@robryk@qoto.org avatar

@rysiek

Istnieje stary odpowiednik takich działań: poszukiwanie "dźwiękowego sobowtóra", który umie naśladować głos naszego "celu". Czy wiesz może o przypadkach, kiedy ktoś w jakimś podobnym kontekście takowego w przeszłości używał?

rysiek,
@rysiek@mstdn.social avatar

@robryk nie wiem, ale piszę o tym, że to również byłaby manipulacja:

> Przecież gdyby użyto lektora skutecznie udającego głos premiera, i nie zaznaczono faktu, że to nie jest oryginalne nagranie głosu szefa rządu, też byłaby to manipulacja!

(…)

> Nie widzę innego celu wykorzystania głosu podobnego do głosu konkretnego polityka, niż manipulacja odbiorcami. Przy czym nie jest specjalnie istotne, czy ten głos wygenerowany został sztucznie, czy wykorzystano odpowiednio uzdolnionego lektora.

  • All
  • Subscribed
  • Moderated
  • Favorites
  • Polska
  • osvaldo12
  • DreamBathrooms
  • InstantRegret
  • magazineikmin
  • Durango
  • Leos
  • Youngstown
  • thenastyranch
  • slotface
  • rosin
  • kavyap
  • mdbf
  • cubers
  • ethstaker
  • anitta
  • khanakhh
  • tacticalgear
  • provamag3
  • ngwrru68w68
  • everett
  • GTA5RPClips
  • modclub
  • normalnudes
  • megavids
  • cisconetworking
  • tester
  • JUstTest
  • lostlight
  • All magazines