Verwendung legaler KI und inakzeptabler KI Technologien nach dem AI Act

Anfrage an: Parlamentsdirektion
Verwendetes Gesetz: Auskunftspflichtgesetz

„Gefahr für Privatsphäre und Demokratie. Biometrische Echtzeit-Überwachungssysteme schaffen eine Infrastruktur ständiger Kontrolle und bedrohen nicht nur Grundrechte wie Datenschutz und Privatsphäre.“ Quelle: https://epicenter.works/content/big-bro…

Mit 1.8.2024 (20. Tag nach der Veröffentlichung im Amtsblatt der Europäischen Union) ist der AI Act und somit die Richtlinien für den Einsatz und die Verwendung von künstlicher Intelligenz geregelt.
6 Monate nach Inkrafttreten des AI Act (sohin der 2.2.2025) dürfen die als „verboten“ klassifizierten Praktiken nicht mehr angewandt werden, wenn es keine gesetzliche Grundlage für eine Ausnahmeverwendung gibt. Diese Verpflichtung betrifft Organisationen unabhängig von ihrer Größe und unabhängig von der Risikoklassifizierung des KI-Systems.

Ich ersuch den zuständigen Behördenleiter und DSGVO-Verantwortlichen um die Beantwortung der nachstehenden Fragen zu den taxativ aufgezählten mit Ablauf des 2.2.2025 + 6 Monate Übergangsfrist verbotenen KI-Systemen und zu allen legalen KI-Systemen im Verantwortungsbereich:

• Verwenden Sie in ihrem gesetzlichen Verantwortungsbereich legale KI-Systeme?
• Falls Ja, bitte um Auflistung der Systeme – Betreiber, DSGVO-Verantwortlicher, Dienstleister, gesetzliche Grundlage und Bekanntgabe der Datenschutzfolgenabschätzung.
• Verwenden Sie in ihrem gesetzlichen Verantwortungsbereich eines der angeführten KI-Systeme die ab 2.2.2025+6 Monate verbotene KI-Systeme sind?
• Falls die Frage zu einem der KI-Systeme mit „Ja“ zu beantworten ist, gibt es zu diesem KI-System eine Datenschutzfolgenabschätzung und ein DSGVO Verarbeitungsverzeichnis?
• Falls die Frage zu einem der KI-Systeme mit „Ja“ zu beantworten ist, gibt es zu diese KI einen Implementierungsleitfaden, Richtlinien und eine gesetzliche Grundlage, dass diese nach dem 2.2.2025+6 Monate weiter betrieben werden dürfen? Es wird ersucht die gesetzlichen Grundlagen dafür bekannt zu geben.

Gem. AI Act - Inakzeptable KI Technologien
ab 2.2.2025 + 6 Monate

KI-Systeme zur unterschwelligen Beeinflussung, Manipulation oder Täuschung

KI-Systeme, welche die Schutzbedürftigkeit bestimmter Personengruppen (z. B. Kinder, Ältere, Menschen mit Behinderung) ausnutzen

KI-Systeme zum sogenannten „social scoring“

KI-Systeme zum sogenannten „predictive policing“ (Vorhersage, ob eine Person eine Straftat begehen wird)

KI-Systeme zur Erstellung von Datenbanken für Gesichtserkennung durch ungezieltes Auslesen von Gesichtsbildern (z. B. sog. „scraping“ von Bildern aus dem Internet)

KI-Systeme zur Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen (in anderen Bereichen hingegen nicht untersagt, sondern als Hochrisiko-KI-Systeme eingestuft)

KI-Systeme zur biometrischen Kategorisierung Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (mit zahlreichen Ausnahmen)

Diese Verbote gelten für Unternehmen aller Branchen, die entsprechende KI-Lösungen entwickeln, beschaffen oder betreiben und gleichfalls großteils für staatliche KI-Systeme, soweit keine gesetzliche Ausnahme dafür festgelegt ist und der Betrieb erlaubt ist.

1.8.2024 + 12 Monate (2. August 2025)

Die Bestimmungen zu KI-Systemen mit allgemeinem Verwendungszweck (General Purpose AI) sind 12 Monate nach Inkrafttreten des AI Act (sohin der 2.8.2025) verpflichtend anzuwenden.

Falls die Eingangs gestellte Frage nach verbotenen KI-Systemen mit „Ja“ zu beantworten ist, ersuche ich um die Beantwortung nachstehender Fragen:

• Welche Behörden, Institutionen oder Verantwortlichen werden am 2.8.2025 für Ihren Verantwortungsbereich als notifizierte Behörde benannt?

1.8.2024 + 24 Monate (2.8.2026)
24 Monate nach Inkrafttreten des AI Act gelten grundsätzlich alle Verpflichtungen. Das bedeutet, die Anforderungen an Hochrisiko-KI-Systeme gemäß Anhang III (nicht hingegen Anhang I), KI-Systeme mit geringem und minimalem Risiko sind einzuhalten und KI-Reallabore müssen einsatzbereit sein. Ebenso gelten dann die Vorschriften über das Recht auf Beschwerde, gem. Art. 85 AIA und das Recht auf Erläuterung im Einzelfall gem. Art. 86 AIA.

Falls die Eingangs gestellte Frage nach verbotenen KI-Systemen mit „Ja“ zu beantworten ist, ersuche ich um die Beantwortung nachstehender Fragen:

• Welche Ihrer KI-Systeme werden ab 2.8.2026 für Ihren Verantwortungsbereich als Hochrisiko-KI-Systeme zu benennen sein und welche Hochrisiko-KI-Systeme haben Sie jetzt bereits in Betrieb?

Anfrage erfolgreich

  • Datum
    31. Januar 2025
  • Frist
    28. März 2025
  • 0 Follower:innen
Herbert Unger (Zertifizierter Datenschutzbeauftragter)
Sehr geehrte Damen und Herren, hiermit beantrage ich gem §§ 2, 3 AuskunftspflichtG die Erteilung folgender Ausku…
An Parlamentsdirektion Details
Von
Herbert Unger (Zertifizierter Datenschutzbeauftragter)
Betreff
Verwendung legaler KI und inakzeptabler KI Technologien nach dem AI Act [#3300]
Datum
31. Januar 2025 12:37
An
Parlamentsdirektion
Status
Warte auf Antwort — E-Mail wird verschickt...
Sehr geehrte Damen und Herren, hiermit beantrage ich gem §§ 2, 3 AuskunftspflichtG die Erteilung folgender Auskunft:
„Gefahr für Privatsphäre und Demokratie. Biometrische Echtzeit-Überwachungssysteme schaffen eine Infrastruktur ständiger Kontrolle und bedrohen nicht nur Grundrechte wie Datenschutz und Privatsphäre.“ Quelle: https://epicenter.works/content/big-brother-is-watching-ki-ueberwachung-im-oeffentlichen-raum Mit 1.8.2024 (20. Tag nach der Veröffentlichung im Amtsblatt der Europäischen Union) ist der AI Act und somit die Richtlinien für den Einsatz und die Verwendung von künstlicher Intelligenz geregelt. 6 Monate nach Inkrafttreten des AI Act (sohin der 2.2.2025) dürfen die als „verboten“ klassifizierten Praktiken nicht mehr angewandt werden, wenn es keine gesetzliche Grundlage für eine Ausnahmeverwendung gibt. Diese Verpflichtung betrifft Organisationen unabhängig von ihrer Größe und unabhängig von der Risikoklassifizierung des KI-Systems. Ich ersuch den zuständigen Behördenleiter und DSGVO-Verantwortlichen um die Beantwortung der nachstehenden Fragen zu den taxativ aufgezählten mit Ablauf des 2.2.2025 + 6 Monate Übergangsfrist verbotenen KI-Systemen und zu allen legalen KI-Systemen im Verantwortungsbereich: • Verwenden Sie in ihrem gesetzlichen Verantwortungsbereich legale KI-Systeme? • Falls Ja, bitte um Auflistung der Systeme – Betreiber, DSGVO-Verantwortlicher, Dienstleister, gesetzliche Grundlage und Bekanntgabe der Datenschutzfolgenabschätzung. • Verwenden Sie in ihrem gesetzlichen Verantwortungsbereich eines der angeführten KI-Systeme die ab 2.2.2025+6 Monate verbotene KI-Systeme sind? • Falls die Frage zu einem der KI-Systeme mit „Ja“ zu beantworten ist, gibt es zu diesem KI-System eine Datenschutzfolgenabschätzung und ein DSGVO Verarbeitungsverzeichnis? • Falls die Frage zu einem der KI-Systeme mit „Ja“ zu beantworten ist, gibt es zu diese KI einen Implementierungsleitfaden, Richtlinien und eine gesetzliche Grundlage, dass diese nach dem 2.2.2025+6 Monate weiter betrieben werden dürfen? Es wird ersucht die gesetzlichen Grundlagen dafür bekannt zu geben. Gem. AI Act - Inakzeptable KI Technologien ab 2.2.2025 + 6 Monate KI-Systeme zur unterschwelligen Beeinflussung, Manipulation oder Täuschung KI-Systeme, welche die Schutzbedürftigkeit bestimmter Personengruppen (z. B. Kinder, Ältere, Menschen mit Behinderung) ausnutzen KI-Systeme zum sogenannten „social scoring“ KI-Systeme zum sogenannten „predictive policing“ (Vorhersage, ob eine Person eine Straftat begehen wird) KI-Systeme zur Erstellung von Datenbanken für Gesichtserkennung durch ungezieltes Auslesen von Gesichtsbildern (z. B. sog. „scraping“ von Bildern aus dem Internet) KI-Systeme zur Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen (in anderen Bereichen hingegen nicht untersagt, sondern als Hochrisiko-KI-Systeme eingestuft) KI-Systeme zur biometrischen Kategorisierung Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (mit zahlreichen Ausnahmen) Diese Verbote gelten für Unternehmen aller Branchen, die entsprechende KI-Lösungen entwickeln, beschaffen oder betreiben und gleichfalls großteils für staatliche KI-Systeme, soweit keine gesetzliche Ausnahme dafür festgelegt ist und der Betrieb erlaubt ist. 1.8.2024 + 12 Monate (2. August 2025) Die Bestimmungen zu KI-Systemen mit allgemeinem Verwendungszweck (General Purpose AI) sind 12 Monate nach Inkrafttreten des AI Act (sohin der 2.8.2025) verpflichtend anzuwenden. Falls die Eingangs gestellte Frage nach verbotenen KI-Systemen mit „Ja“ zu beantworten ist, ersuche ich um die Beantwortung nachstehender Fragen: • Welche Behörden, Institutionen oder Verantwortlichen werden am 2.8.2025 für Ihren Verantwortungsbereich als notifizierte Behörde benannt? 1.8.2024 + 24 Monate (2.8.2026) 24 Monate nach Inkrafttreten des AI Act gelten grundsätzlich alle Verpflichtungen. Das bedeutet, die Anforderungen an Hochrisiko-KI-Systeme gemäß Anhang III (nicht hingegen Anhang I), KI-Systeme mit geringem und minimalem Risiko sind einzuhalten und KI-Reallabore müssen einsatzbereit sein. Ebenso gelten dann die Vorschriften über das Recht auf Beschwerde, gem. Art. 85 AIA und das Recht auf Erläuterung im Einzelfall gem. Art. 86 AIA. Falls die Eingangs gestellte Frage nach verbotenen KI-Systemen mit „Ja“ zu beantworten ist, ersuche ich um die Beantwortung nachstehender Fragen: • Welche Ihrer KI-Systeme werden ab 2.8.2026 für Ihren Verantwortungsbereich als Hochrisiko-KI-Systeme zu benennen sein und welche Hochrisiko-KI-Systeme haben Sie jetzt bereits in Betrieb?
Für den Fall einer vollständigen oder teilweisen Nichterteilung der Auskunft (zB Verweigerung) beantrage ich die Ausstellung eines Bescheides gem § 4 AuskunftspflichtG. Herbert Unger Anfragenr: 3300 Antwort an: <<E-Mail-Adresse>> Laden Sie große Dateien zu dieser Anfrage hier hoch: https://fragdenstaat.at/a/3300/ Postanschrift Herbert Unger << Adresse entfernt >> << Adresse entfernt >>
Mit freundlichen Grüßen Herbert Unger (Zertifizierter Datenschutzbeauftragter)
Parlamentsdirektion
Sehr geehrter Herr Unger,   in Bezug auf Ihr Auskunftsbegehren vom 31.1.2025 betreffend die Verwendung von KI-Syst…
Von
Parlamentsdirektion
Betreff
TicketNr.1165/2025-1 Verwendung legaler KI und inakzeptabler KI Technologien nach dem AI Act [#3300]
Datum
12. März 2025 10:52
Status
Anfrage abgeschlossen
bild1.png
2,5 KB


Sehr geehrter Herr Unger,   in Bezug auf Ihr Auskunftsbegehren vom 31.1.2025 betreffend die Verwendung von KI-Systemen erteilen wir Ihnen folgende Auskunft: Derzeit kommen keine zentralen, flächendeckenden KI-Systeme im Echtbetrieb in der Parlamentsdirektion zum Einsatz. Sofern einzelne Mitarbeiter:innen zur Optimierung ihrer Arbeiten KI-Systeme am jeweiligen Arbeitsplatz verwenden, müssen diese den KI-Nutzungsbedingungen der Parlamentsdirektion entsprechen.   Es kommen keine verbotenen KI-Systeme bzw. Praktiken gemäß Art. 5 KI-VO zum Einsatz und es werden auch keine Hochrisiko-Systeme betrieben. Derzeit wird ein in-house (d. h. auf internen Servern) gehostetes KI-System für den Bereich Speech to Text evaluiert. Im Rahmen dieses Pilotprojekts wird die Transkription von öffentlichen Reden mittels KI-Technologie als Grundlage für die Arbeit der Abteilung Stenographische Protokolle unterstützt (mit Human-in-the-Loop-Kontrollprinzip). Diesbezüglich werden das Open-Source-Spracherkennungssystem Whisper von OpenAI sowie das Open-Source-Diarisierungssystem Pyannote verwendet. Betreiber ist die Parlamentsdirektion.   Verantwortlicher im Sinne der DSGVO ist im Bereich der Parlamentsverwaltung grundsätzlich der Präsident des Nationalrats gemäß Art. 30 Abs. 3 und 6 B-VG. Die Transkription von öffentlichen Reden im Rahmen des Pilotprojekts Speech to Text soll jedoch künftig im Bereich der Gesetzgebung (Stenographische Protokolle) zum Einsatz gelangen. In diesem Bereich ist Verantwortlicher im Sinne der DSGVO jeweils der Nationalrat bzw. der Bundesrat gemäß § 3a Abs. 4 InfOG (iVm. GOG-NR bzw. GO-BR). Die gesetzliche Grundlage für die Datenverarbeitung findet sich in § 3a Abs. 1 InfOG.   Der Einsatz des KI-Systems für Speech to Text befindet sich in der Evaluierungsphase. Neben der Einsatzeignung des KI-Speech-to-Text-Systems wird daher derzeit auch die Erforderlichkeit einer Datenschutzfolgeabschätzung erst geprüft.   Mit freundlichen Grüßen,