Artificial Intelligence: Ein Balanceakt zwischen Innovation und Regulation
Donald Trump steht kurz vor seinem zweiten Einzug ins Weiße Haus und mit ihm zieht auch seine Agenda zur Förderung der künstlichen Intelligenz ein, die als potenziell mächtigste Technologie unserer Zeit gilt. Ein zentraler Punkt seiner Strategie ist die Reduzierung übermäßiger Regulierungen, wobei er sich prominente Unterstützung gesichert hat: Der umstrittene Tech-Milliardär Elon Musk soll Trumps Vorhaben unterstützen, staatliche Regelungen zu entschärfen.
Die Republikanische Partei hat bereits in ihrem Wahlprogramm angekündigt, ein umfassendes Exekutivdekret von Vorgänger Joe Biden rückgängig machen zu wollen. Dieses Dekret zielte darauf ab, die nationalen Sicherheitsrisiken der KI zu managen und Diskriminierung durch KI-Systeme zu verhindern. Das Parteidokument wirft dem Dekret "radikale linke Ideen" vor, welche die Innovationskraft hemmen würden.
Doch nicht alle beobachten diesen regulatorischen Kurswechsel mit Wohlwollen. Sandra Wachter, Professorin am Oxford Internet Institute, betont die Dringlichkeit robuster Regulierungen, um den mit KI verbundenen Risiken zu begegnen. Besonders die Gefahr der Voreingenommenheit von KI-Systemen sei evident, da diese auf historischen Daten fußen, die bestehende gesellschaftliche Vorurteile widerspiegeln. So können KI-Entscheidungen in Bereichen wie Einstellungspraxis oder Kreditvergabe diskriminierend ausfallen.
Andrew Strait vom Ada Lovelace Institute warnt zudem vor dem Einsatz von KI in der vorausschauenden Polizeiarbeit, die auf Basis historischer Kriminaldaten arbeitet. Solche Technologien könnten das Augenmerk der Polizei ungerechtfertigt auf bestimmte Gemeinschaften lenken und dort eine erhöhte Kriminalitätsrate suggerieren.
Des Weiteren birgt die KI die Gefahr, täuschende Medieninhalte zu erzeugen - von manipulativen Bildern bis hin zu verzerrten Audios und Videos. Diese können letztlich genutzt werden, um Wahlen zu beeinflussen oder schikanierende, pornografische Inhalte zu erstellen.