Künstliche Intelligenz-Gesetz verbietet Gesichtserkennung endgültig

0

Die EU hat beschlossen, den Bereich der künstlichen Intelligenz (KI) durch den AI Act zu regulieren, um bedenkliche Praktiken wie die Gesichtserkennung von Suchmaschinen einzudämmen und die Anonymität sowie Sicherheit der Menschen zu schützen. Mit der Zustimmung des EU-Parlaments wurden die Regelungen des Gesetzes verschärft, um einen umfassenden Schutz vor potenziell missbräuchlicher KI-Anwendung zu gewährleisten.

Revolutionäre Errungenschaft: Regulierter KI-Wirtschaftsraum entsteht

Die EU nimmt eine Vorreiterrolle bei der gesetzlichen Regulierung von künstlicher Intelligenz ein, indem sie als erster Wirtschaftsraum weltweit einen umfassenden Gesetzesentwurf vorlegt. Nach der Festlegung der Position durch das Europäische Parlament können nun Verhandlungen zwischen verschiedenen EU-Institutionen beginnen, um das Gesetz final zu gestalten.

Um sicherzustellen, dass KI in der Europäischen Union den hohen Standards entspricht, legen die Vorschriften Wert auf eine umfassende menschliche Aufsicht, um potenzielle Risiken zu minimieren und die Verantwortlichkeit zu gewährleisten. Zusätzlich werden strenge Sicherheitsanforderungen festgelegt, um den Schutz sensibler Daten zu gewährleisten und Cyberangriffe zu verhindern.

Umfang des geplanten Gesetzes: Was beinhaltet es?

Das Europäische Parlament hat eine umfassende Definition eines KI-Systems eingeführt, das als maschinengestütztes System beschrieben wird, das mit unterschiedlichem Grad an Autonomie agieren kann und durch Vorhersagen, Empfehlungen oder Entscheidungen sowohl das physische als auch das virtuelle Umfeld beeinflussen kann. Diese Definition ermöglicht es, verschiedene Arten von Software in den Anwendungsbereich des geplanten Gesetzes einzubeziehen.

Gefährliche KI-Anwendungen: Verbotene Praktiken im Fokus

Einige KI-Praktiken haben ein hohes Potenzial, die Privatsphäre der Menschen zu verletzen und persönliche Daten unrechtmäßig zu sammeln und zu verwenden. Solche Praktiken stellen eine unannehmbare Bedrohung für die Sicherheit der Menschen dar, da sie die Grundlage für individuelle Freiheit und Autonomie untergraben können.

  • Schädliche KI-Systeme nutzen subtile Beeinflussung und Täuschung, um Schaden anzurichten.
  • Menschen ausnutzen, indem ihre individuellen Eigenschaften wie Persönlichkeitsmerkmale, soziale oder wirtschaftliche Situation, Alter oder körperliche/geistige Fähigkeiten erkannt oder vorhergesagt werden, um ihre Schwächen oder Schutzbedürftigkeit gezielt auszunutzen.
  • Systeme zur biometrischen Kategorisierung anhand sensibler Merkmale werden verwendet, um Personen anhand objektiver und messbarer Eigenschaften wie Geschlecht und ethnischer Zugehörigkeit zu klassifizieren. Diese Systeme haben jedoch keine therapeutischen Anwendungen und dienen hauptsächlich der Identifikation oder Analyse von Merkmalen für Forschungs- oder sicherheitsrelevante Zwecke.
  • Systeme zur Bewertung des sozialen Verhaltens sind computergestützte Tools, die entwickelt wurden, um das Verhalten von Individuen in sozialen Interaktionen zu analysieren und zu bewerten. Dabei werden verschiedene Faktoren wie Nonverbales Verhalten, Sprachmuster und soziale Reaktionen berücksichtigt, um ein umfassendes Bild des sozialen Verhaltens einer Person zu erhalten.
  • Biometrische Systeme ermöglichen die Echtzeit- oder nachträgliche Identifizierung von Personen an öffentlich zugänglichen Orten aus der Ferne. Diese fortschrittliche Technologie nutzt individuelle Merkmale wie Gesichtserkennung oder Fingerabdruckabgleich, um eine zuverlässige und schnelle Identifizierung von Personen zu gewährleisten.
  • Eine KI-basierte Anwendung nutzt Profile und Standortdaten von Personen, um prädiktive Modelle zu erstellen, die das Risiko von Straffälligkeit oder Rückfälligkeit bewerten. Diese Modelle ermöglichen es, potenziell gefährdete Personen zu identifizieren und gezielte Interventionen zur Vermeidung von Straftaten zu planen.
  • KI-Systeme ermöglichen die Erstellung von Datenbanken zur Gesichtserkennung, indem sie automatisch das Internet nach Bildern durchsuchen und diese mit den vorhandenen Daten abgleichen. Dieser Prozess ermöglicht eine effiziente Erweiterung der Datenbank, um die Genauigkeit der Gesichtserkennungsalgorithmen zu verbessern.
  • KI-Systeme werden in verschiedenen Bereichen wie Strafverfolgung, Grenzmanagement, Arbeitsplatz und Bildungseinrichtungen verwendet, um Emotionen zu erkennen. Durch die Analyse von Gesichtsausdrücken, Stimmlagen und anderen bio-metrischen Daten können diese Systeme helfen, potenziell verdächtiges Verhalten, emotionale Zustände oder ungewöhnliche Aktivitäten zu identifizieren.

Gefahrenpotenzial: Die Risiken der künstlichen Intelligenz

Hochriskante KI-Systeme umfassen solche, die potenziell schwerwiegende Auswirkungen auf die Gesundheit und Sicherheit von Personen haben können, wie beispielsweise medizinische Diagnosesysteme oder autonome Fahrzeuge. Zusätzlich dazu können auch Systeme, die Umweltschäden verursachen könnten, in diese Kategorie fallen, wie etwa KI-gesteuerte Industrieanlagen.

Anforderungen variieren je nach Risikoeinschätzung

Um sicherzustellen, dass neue Technologien und KI-Anwendungen den rechtlichen und ethischen Anforderungen entsprechen, sind umfangreiche Schritte erforderlich. Dazu gehören die Einhaltung von Registrierungsverfahren, die Gewährleistung eines effektiven Risiko- und Qualitätsmanagements, die Überwachung durch menschliche Aufsicht und die Offenlegung von Generierungsprozessen bei der Erstellung von Deepfake-Fotos.

Neue Risikostufen: Maßnahmen für Bürgerförderung und -schutz

Der Gesetzesentwurf für KI mit minimalem oder keinem Risiko enthält nur allgemeine Richtlinien, die von den Entwicklern befolgt werden müssen, um sicherzustellen, dass die KI unter menschlicher Kontrolle steht und vor technischen Störungen, Cyberangriffen und Schäden geschützt ist. Zusätzlich müssen Datenschutzgrundsätze eingehalten und Diskriminierung vermieden werden.

Im Rahmen der Förderung von Forschungstätigkeiten werden spezielle Ausnahmen geschaffen, die insbesondere auf die Unterstützung von Reallaboren abzielen. Diese Reallabore bieten Behörden die Gelegenheit, KI-Anwendungen unter realen Bedingungen zu testen und so deren Leistungsfähigkeit und Einsatzmöglichkeiten zu erproben.

Der AI Act der EU ist eine wegweisende Gesetzgebung, die eine Vielzahl von bedeutenden Vorteilen mit sich bringt. Durch seine Einschränkung und Verbote von bedenklichen Praktiken im Zusammenhang mit KI-Systemen schützt er effektiv die Privatsphäre und Sicherheit der Menschen. Darüber hinaus gewährleistet der AI Act, dass der Einsatz von KI in Europa den grundlegenden Werten entspricht und stets von menschlicher Aufsicht begleitet wird.

Die weitverbreitete Nutzung von Gesichtserkennungssoftware wie PimEyes hat zu erheblichen Bedenken hinsichtlich des Schutzes der Privatsphäre und Anonymität geführt. Insbesondere Menschen, die auf Anonymität angewiesen sind, um ihre Sicherheit zu gewährleisten, sind durch die potenzielle Missbrauchsmöglichkeit dieser Technologie gefährdet. Als Reaktion darauf hat die Europäische Union den AI Act, ein Gesetz zur Regulierung künstlicher Intelligenz, eingeführt, um den Einsatz solcher Technologien einzuschränken und die Privatsphäre der Bürger zu schützen.

Die EU hat einen Meilenstein erreicht, indem sie sich darauf vorbereitet, Künstliche Intelligenz gesetzlich zu regulieren. Nachdem die Europäische Kommission den Gesetzentwurf im April 2021 vorgelegt hat und das Europäische Parlament seine Position im Juni 2023 festgelegt hat, werden nun Verhandlungen zwischen den beteiligten Parteien geführt, um das endgültige Gesetz zu formen.

Die EU-Vorschriften für Künstliche Intelligenz zielen darauf ab, sicherzustellen, dass KI-Systeme, die in der Europäischen Union entwickelt und verwendet werden, im Einklang mit den grundlegenden Rechten und Werten der Union stehen. Dies wird erreicht, indem menschliche Aufsicht gewährleistet wird, Sicherheitsanforderungen erfüllt werden, Datenschutz und Transparenz gewährleistet werden, Diskriminierung vermieden wird und sowohl die Gesellschaft als auch die Umwelt geschützt werden.

Beschreibung: Das Europäische Parlament definiert ein KI-System als eine Art von maschinengestütztem System, das dazu entwickelt wurde, autonom zu operieren und Ergebnisse zu erzeugen, die einen Einfluss auf die physische oder virtuelle Umgebung haben. Diese Definition umfasst verschiedene Arten von Software und dient als Grundlage für die Kategorisierung von KI-Systemen gemäß dem geplanten Gesetz.

Diese Aussage bezieht sich auf bestimmte KI-Praktiken, die aufgrund ihrer potenziellen Gefährdung der menschlichen Sicherheit verboten werden sollen. Dazu gehören KI-Systeme, die subtile Beeinflussungstechniken oder absichtlich manipulative und täuschende Verfahren verwenden, um Schaden anzurichten, mit Ausnahme in anerkannten therapeutischen Anwendungen.

Eine Reihe von verbotenen Praktiken umfasst den Einsatz von KI-Systemen, die das soziale Verhalten bewerten, indem sie individuelle Handlungen und Interaktionen in Echtzeit überwachen und analysieren. Solche Systeme haben das Potenzial, die Privatsphäre der Menschen einzuschränken und eine umfassende Überwachungskultur zu fördern.

KI-Systeme, die als hochriskant eingestuft werden, weisen ein beträchtliches Potenzial auf, die Gesundheit, Sicherheit und Grundrechte von Personen zu gefährden oder negative Auswirkungen auf die Umwelt zu haben. Die im Anhang III des Gesetzesentwurfs genannten acht Kategorien solcher KI-Systeme bieten Unternehmen einen Leitfaden, um potenziell risikoreiche Technologien zu identifizieren und entsprechende Maßnahmen zu ergreifen.

Für die Zulassung auf dem Markt müssen KI-Systeme, je nach ihrem Risikopotenzial, verschiedene Voraussetzungen erfüllen. Dazu gehören beispielsweise die Registrierung in einer EU-Datenbank, die Implementierung von Risiko- und Qualitätsmanagementmaßnahmen, die Aufsicht durch menschliche Kontrolleure sowie die Erfüllung umfangreicher Transparenzanforderungen.

Im vorliegenden Gesetzesentwurf werden für Künstliche Intelligenz, die mit minimalem oder keinem Risiko einhergeht, nur grundlegende Prinzipien festgelegt, wie beispielsweise die Notwendigkeit menschlicher Kontrolle und Überwachung, die Gewährleistung technischer Stabilität, der Schutz vor potenziellen Schäden und Cyberangriffen, die Einhaltung von Datenschutzbestimmungen sowie die Verhinderung von Diskriminierung.

Im Rahmen der Förderung von Forschungstätigkeiten wird vorgeschlagen, Ausnahmen zu gewähren, insbesondere durch die Unterstützung von Reallaboren. Dies ermöglicht Behörden, KI-Anwendungen unter realen Bedingungen zu testen und somit Erkenntnisse über ihre Funktionsweise, Effektivität und mögliche Herausforderungen zu gewinnen.

Der AI Act, eine gesetzliche Verordnung, bringt erhebliche Vorteile mit sich, indem es den Schutz der Privatsphäre und Sicherheit der Menschen gewährleistet. Durch die Einschränkung und das Verbot von KI-Systemen mit bedenklichen Praktiken stellt es sicher, dass KI den europäischen Werten entspricht und von menschlicher Aufsicht begleitet wird. Unternehmen sollten daher frühzeitig ihre eigenen Systeme überprüfen, um hohe Geldbußen zu vermeiden, die bei der Verwendung verbotener KI-Systeme drohen können. Die Verordnung wird voraussichtlich ab 2026 in Kraft treten, sodass Unternehmen genügend Zeit haben, sich auf die neuen Regelungen vorzubereiten.

Lassen Sie eine Antwort hier