Hauptmenü Accesskey 1 Hauptinhalt 2 Footer 3 Suche 4 Impressum 8 Kontakt 9 Startseite 0
Neu Presse TV-Tipps Termine
© Queer Communications GmbH
https://queer.de/?37748

Bericht veröffentlicht

FRA warnt: KI kann genutzt werden, um Menschen als homosexuell einzustufen

Die Agentur der Europäischen Union für Grundrechte fordert von der EU und den Mitgliedstaaten einen verstärkten Schutz der Bürger*innen vor Auswüchsen von Künstlicher Intelligenz.


Die KI kann auch "die Grundrechte beeinträchtigen", beklagt die Agentur der Europäischen Union für Grundrechte (Bild: geralt / pixabay)

Die EU-Staaten sollten ihre Bürger*innen durch gesetzgeberische Maßnahmen vor Auswüchsen der Künstlichen Intelligenz (KI) schützen. Das fordert die Agentur der Europäischen Union für Grundrechte (FRA) in einem am Montag an ihrem Sitz in Wien veröffentlichten Bericht. Die automatisierten Abläufe in Entscheidungsprozessen unter Zuhilfenahme der KI könnten zu Diskriminierung und ungerechter Behandlung führen.

In der öffentlichen Wahrnehmung der KI stehe ihr "Potenzial zur Stützung des Wirtschaftswachstums" im Vordergrund, heißt es in dem FRA-Bericht. Dagegen finde es "weniger Beachtung", dass die KI auch "die Grundrechte beeinträchtigen" könne.

KI hat Potzenzial zur Diskriminierung

Unter Künstlicher Intelligenz wird die Fähigkeit von Maschinen subsumiert, die menschliche Intelligenz zu imitieren und eigenständig hinzuzulernen, ohne dabei auf die Anweisungen eines Menschen angewiesen zu sein. Solche Techniken, darunter die Sprach- und Gesichtserkennung, leistungsfähige Roboter und selbstfahrende Autos, werden verstärkt von Verwaltungen, in den Bereichen Medizin und Bildung, aber auch im Privatsektor der Wirtschaft eingesetzt.

Laut dem FRA-Bericht setzen 42 Prozent der europäischen Unternehmen auf KI, führend sind dabei Tschechien mit 61 Prozent, Bulgarien mit 54 Prozent und Litauen mit 54 Prozent. Besonders stark genutzt wird die KI von der Werbebranche, die sich damit den Zugang zu Internet-Kund*innen verschaffen will. Die FRA machte auf Missbrauchsmöglichkeiten der KI aufmerksam. So könne sie dazu eingesetzt werden, einen Menschen als homosexuell einzustufen oder den Zugang bestimmter Bevölkerungsgruppen zum Arbeitsmarkt mit der Eingabe von Eigennamen oder Adressen zu erschweren.

FRA fordert mehr Forschungsmittel

"Das Bewusstsein für das Potenzial der KI zur Diskriminierung und die damit verbundenen Auswirkungen ist relativ gering", heißt es in einer Pressemitteilung der Agentur. "Deshalb müssen mehr Forschungsmittel eingesetzt werden, um die potenziell diskriminierenden Auswirkungen der KI zu untersuchen, damit Europa sich dagegen schützen kann."

Wenn Bürger*innen einen irrigen medizinischen Befund erhalten oder wenn ihnen eine Sozialleistung fälschlich vorenthalten wird, wissen sie laut FRA vielfach nicht, dass die Entscheidung automatisiert getroffen wurde. Ein britisches Gericht entschied kürzlich, dass das von der Polizei in Cardiff verwendete Programm zur Gesichtserkennung von Vorurteilen behaftet sei. FRA-Direktor Michael O'Flaherty forderte, dass der "künftige Regelkanon der EU für die Künstliche Intelligenz ohne Einschränkungen die Menschenrechte und die Grundrechte" garantieren müsse. (cw/AFP)