Zurück zum Blog
·Rosie·3 min Lesezeit·Archiv 2022

Die Schöpfer künstlicher Intelligenz müssen vor Gericht nachweisen, dass sie keinen Schaden angerichtet haben

Ich empfehle, den Artikel auf Lupa zu lesen: Die Schöpfer künstlicher Intelligenz müssen vor Gericht nachweisen, dass sie keinen Schaden angerichtet haben. Es geht um einen neuen Richtlinienvorschlag über…

Die Schöpfer künstlicher Intelligenz müssen vor Gericht nachweisen, dass sie keinen Schaden angerichtet haben

Ich empfehle, den Artikel auf Lupa zu lesen: Die Schöpfer künstlicher Intelligenz müssen vor Gericht nachweisen, dass sie keinen Schaden angerichtet haben. Es geht um einen neuen Richtlinienvorschlag über die Haftung für Schäden, die durch künstliche Intelligenz verursacht werden.

Diese Richtlinie führt neu die Fiktion ein, dass die künstliche Intelligenz einen schädlichen Effekt verursacht hat. Es handelt sich um eine sogenannte widerlegbare Vermutung, das bedeutet, dass der Schöpfer der künstlichen Intelligenz sich entlasten kann, wenn er selbst nachweist, dass er keinen Anteil an dem Vorfall hat. Ich frage mich, ob eine solche Richtlinie nicht etwas demotivierend ist, um in der EU Systeme zu entwickeln, die das Gesetz mit dem Prinzip der Umkehrung der Beweislast betrachtet.

Eine weitere Neuerung ist die Möglichkeit für das Gericht, vorzuschlagen, dass Informationen über hochriskante KI-Systeme zugänglich gemacht werden. Der Geschädigte könnte somit einen Einblick in die Arbeit der Entwickler erhalten. Wenn die Dokumentation so leicht in die Hände unzufriedener Kläger gelangen kann, denke ich zusammen mit John Buyers, dass dies erheblichen Einfluss darauf haben wird, wie Dokumentationen verfasst werden.

Um festzustellen, wie sehr bestimmte Systeme und Anwendungen schädlich sind, führt die AIA deren Kategorisierung ein. In die verbotene Gruppe „unvertretbares Risiko“ fallen Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen der Nutzer zu umgehen. Ich weiß nicht, ob ich das richtig verstehe, aber wenn ich eine Anwendung erstelle, die mich beispielsweise zum Sport motiviert – umgehe ich damit meinen freien Willen (der zum Sport nicht ausreichend war) und schaffe ein unvertretbares Risiko, unabhängig davon, ob die Anwendung nützlich oder schädlich ist? Oder verstehe ich nicht, wie das mit neurologischen Forschungen übereinstimmt, die das Konzept des freien Willens aus guten Gründen aufgegeben haben (das Gehirn entscheidet früher als unser Ich und erzeugt so eine falsche Illusion des freien Willens; wir haben Triebe und Instinkte…).

Darüber hinaus sind Anwendungen in der hochriskanten Kategorie prinzipiell nicht ausgeschlossen, jedoch müssen vor ihrem Einsatz eine Reihe von Bedingungen erfüllt werden. Zu dieser Gruppe gehören die Bereiche Bildung, Beschäftigung, Finanzen oder Strafverfolgung. Daher wird die EU meine edukativen Anwendungen als hochriskant betrachten. Experten der EU lehnen es ab, meine Forschung zu fördern (zum Beispiel etwa 1 Million für eine ordentliche tschechische Version von DestilBERT, die vielen tschechischen Unternehmen tatsächlich helfen würde). Sie ziehen es vor, aus meiner Sicht etwas fragwürdige Projekte zu unterstützen (z.B. eine Millionenförderung im Innovationsprogramm für das Toastbrot Penam von Herrn Babiš).

Jetzt möchte mir die EU helfen, vertrauenswürdige und sichere Systeme zu schaffen, indem ich eine Reihe von Bedingungen erfüllen muss, um nachzuweisen, dass meine Systeme genau und gerecht sind, dass immer menschliche Aufsicht über automatisierte Prozesse notwendig ist (ich denke, ein Überwachungssystem mit Benachrichtigung ist besser) und ähnliches.

Ich verstehe, dass es notwendig ist, die Menschen zu schützen. KI birgt tatsächlich bestimmte Risiken (Empfehlungssysteme auf TikTok und FB z.B.). Ich habe mir selbst drei ethische Prinzipien für KI aufgestellt, nach denen ich mein Unternehmen leite (Nützlichkeit, Sicherheit und Transparenz). Ich würde mir wünschen, dass in der EU und in der Tschechischen Republik mehr über die Nützlichkeit gesprochen wird. Außerdem habe ich nicht ganz verstanden, was alles unter die Definition von KI fällt (z.B. nur Software oder auch Hardware). Warum sollte KI anders behandelt werden als andere Systeme?

Artikel: https://www.lupa.cz/…/tvurci-umele-inteligence-budou…/

Richtlinie: https://ec.europa.eu/…/files/1_1_197605_prop_dir_ai_en.pdf

Původní zdroj: wordpress

Související články