Neue Deepfake-Technologien: EU-AI Act und die Gefahr der Wahlmanipulation

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Bei einem Vorfall in New Hampshire wurde die Stimme von Joe Biden digital imitiert, um Wähler davon abzuhalten, an der Vorwahl teilzunehmen. Dies stellt eine versuchte Wahlmanipulation und eine schwere Straftat dar. Die Technologie hinter dieser Fake-Stimme ist mächtig und weitgehend unreguliert. Die EU arbeitet an einem Akt zur Regulierung von KI, jedoch wird dies erst in zwei Jahren vollständig wirksam. Anbieter und die internationale Politik müssen sofort handeln, um den Missbrauch von Deepfake-Technologien zu verhindern. Neue Technologien sollten der Öffentlichkeit erst zugänglich gemacht werden, wenn das Risiko des Missbrauchs minimiert wurde. Es ist wichtig, dass bestehende Technologien ebenfalls überprüft werden.

„Neue Richtlinien notwendig für den Umgang mit künstlicher Intelligenz“ – Kommentar von Florian Görres in der Berliner Morgenpost

BERLINER MORGENPOST

Berlin (ots)

Vor acht Jahren, bei seinem ersten Präsidentschaftswahlkampf, musste Donald Trump sich noch die Mühe machen, Gerüchte über seine politischen Gegner selbst in die Welt zu setzen. Wer heute Unwahrheiten über einen politischen Gegner verbreiten will, legt sie ihm einfach selbst in den Mund. So geschehen in New Hampshire, wo Joe Bidens Stimme digital imitiert wurde. Mit dieser Fake-Stimme wurden dann Wähler kontaktiert und aufgefordert, der Vorwahl fernzubleiben.

Es handelt sich um einen klaren Fall versuchter Wahlmanipulation, eine schwere Straftat. Der Aufwand dafür ist gering: Nach Aussage des mutmaßlichen Fälschers hat die Sprachaufnahme einen Dollar gekostet und 20 Minuten Zeit in Anspruch genommen. Das zeigt deutlich: Die zugrundeliegende Technik ist übermäßig mächtig und gleichzeitig völlig unterreguliert.

Die EU bringt dazu den AI Act auf den Weg, der greift aber erst in zwei Jahren vollständig. Bereits in diesem Jahr finden wegweisende Wahlen statt, daher müssen Anbieter und die internationale Politik sofort handeln. Neue Deepfake-Technologien dürfen der Öffentlichkeit erst zugänglich gemacht werden, wenn das Missbrauchsrisiko auf ein akzeptables Minimum gesenkt wurde. Auch bestehende müssen in gleichem Maße daraufhin überprüft werden.

Pressekontakt:

BERLINER MORGENPOST

Telefon: 030/887277 – 878
bmcvd@morgenpost.de

Original-Content von: BERLINER MORGENPOST, übermittelt durch news aktuell

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert