Félrevezethetik a választókat a Microsoft és az OpenAI AI-eszközei

Kutatók szerint mindkét cég AI-eszközei félrevezető választási képeket generálnak, az irányelvek ellenére is.

A CCDH (Center for Countering Digital Hate) nonprofit szervezet kutatói azt állítják a legutóbbi jelentésükben, hogy a Microsoft és az OpenAI képgenerálást lehetővé tévő AI-eszközeivel olyan képek hozhatóak létre, amelyek elősegítik a választási és szavazási tévinformációk terjedését, annak ellenére, hogy ilyen tartalmak ellen kifejezett irányelveket hozott létre a két cég.

A CCDH könnyedén hozott létre képeket Joe Biden elnökről, ahogy egy kórházi ágyban fekszik, vagy választási dolgozókról, akik a szavazógépeket teszik tönkre. A kutatók szerint a tévinformációk terjedése az egekbe lőhet, mert így sokan AI-generálta fotóval „bizonyítják” majd az állításaikat. Ez azonban a választásokra óriási hatással lehet, rossz értelemben.

A CCDH az OpenAI ChatGPT Plust, a Microsoft Image Creatort, a Midjourneyt és a Stability AI DreamStudiót tesztelte. A négyből három aláírta korábban a megállapodást, hogy együtt gátolják meg, hogy az AI-s tartalmak befolyásolják a választásokat.

A CCDH az esetek 41 százalékában tudott ilyen képeket generálni, az amerikai elnökökről nehezebb volt, a jelöltekről készülő képeket a ChatGPT Plus és az Image Creator például nem hozta létre.

A CCDH szerint bizonyíték van rá, hogy ezekkel az eszközökkel már most félrevezető politikai tartalmakat gyártanak egyesek.

A visszaélések meggátolására most a Microsoft kivételévek mindegyik cég újra fogadalmat tett.

Azóta történt

Előzmények