Zurück zum Blog
·Jan Tyl·3 min Lesezeit·Archiv 2022

Ich empfehle, den Artikel auf Lupě zu lesen: Die Schöpfer künstlicher Intelligenz werden vor Gericht …

Ich empfehle, den Artikel auf Lupě zu lesen: Die Schöpfer künstlicher Intelligenz werden vor Gericht beweisen müssen, dass sie keinen Schaden angerichtet haben. Es wird über einen neuen Entwurf einer Richtlinie zur Haftung für Schäden, die durch künstliche Intelligenz verursacht wurden, geschrieben. Diese Richtlinie führt neu ein

Ich empfehle, den Artikel auf Lupě zu lesen: Die Schöpfer künstlicher Intelligenz werden vor Gericht …

Ich empfehle, den Artikel auf Lupě zu lesen: Die Schöpfer künstlicher Intelligenz werden vor Gericht beweisen müssen, dass sie keinen Schaden angerichtet haben. Es wird über einen neuen Entwurf einer Richtlinie zur Haftung für Schäden, die durch künstliche Intelligenz verursacht wurden, geschrieben.

Diese Richtlinie führt neu die Fiktion ein, dass die künstliche Intelligenz einen schädlichen Effekt verursacht hat. Es handelt sich um eine sogenannte widerlegbare Vermutung, das bedeutet, dass der Schöpfer der künstlichen Intelligenz sich entlasten kann, wenn er selbst nachweist, dass er keinen Anteil an dem Vorfall hat. Ich frage mich, ob eine solche Richtlinie nicht etwas demotivierend ist, um in der EU Systeme zu entwickeln, die das Gesetz mit dem Prinzip der Umkehrung der Beweislast betrachtet.

Eine weitere Neuerung ist die Möglichkeit für das Gericht, vorzuschlagen, dass Informationen über hochriskante KI-Systeme zugänglich gemacht werden. Der Geschädigte könnte somit einen Blick auf die Hände der Entwickler werfen. Wenn die Dokumentation so leicht in die Hände unzufriedener Kläger gelangen kann, denke ich zusammen mit John Buyers, dass dies erheblichen Einfluss darauf haben wird, wie Dokumentationen erstellt werden.

Um zu bestimmen, wie sehr welche Systeme und Anwendungen schädlich sind, führt die AIA deren Kategorisierung ein. In die verbotene Gruppe „unvertretbares Risiko“ fallen jene Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen der Nutzer zu umgehen. Ich weiß nicht, ob ich das richtig verstehe, aber wenn ich eine Anwendung erstelle, die mich beispielsweise zum Sport motiviert – umgehe ich damit meinen freien Willen (der zum Sport nicht ausreichend war) und schaffe ein unvertretbares Risiko, unabhängig davon, ob die Anwendung nützlich oder schädlich ist? Oder verstehe ich nicht, wie das mit neurologischen Forschungen übereinstimmt, die das Konzept des freien Willens aus guten Gründen aufgegeben haben (das Gehirn entscheidet sich früher als unser Ich und schafft so eine falsche Illusion des freien Willens; wir haben Triebe und Instinkte...).

Darüber hinaus sind Anwendungen in der hochriskanten Kategorie prinzipiell nicht ausgeschlossen, jedoch müssen vor ihrem Einsatz eine Reihe von Bedingungen erfüllt werden. Zu dieser Gruppe gehören der Bildungssektor, Beschäftigung, Finanzen oder die Strafverfolgung. Daher wird die EU meine edukativen Anwendungen als hochriskant betrachten. Experten der EU lehnen es ab, meine Forschung zu fördern (zum Beispiel etwa 1 Million für eine ordentliche tschechische Version von DestilBERT, die tatsächlich vielen tschechischen Unternehmen helfen würde). Sie ziehen es vor, aus meiner Sicht etwas fragwürdige Projekte zu unterstützen (z.B. eine Millionenförderung im Innovationsprogramm für das Toastbrot Penam von Herrn Babiš).

Jetzt möchte mir die EU helfen, vertrauenswürdige und sichere Systeme zu schaffen, indem ich eine Reihe von Bedingungen erfüllen muss, um zu beweisen, dass meine Systeme genau und gerecht sind, dass immer menschliche Aufsicht über automatisierte Prozesse erforderlich ist (ich denke, ein Überwachungssystem mit Benachrichtigung ist besser) und so weiter.

Ich verstehe, dass es notwendig ist, die Menschen zu schützen. KI bringt tatsächlich gewisse Risiken mit sich (Empfehlungssysteme auf TikTok und FB z.B.). Ich habe mir drei ethische Prinzipien für KI geschaffen, nach denen ich mein Unternehmen leite (Nützlichkeit, Sicherheit und Transparenz). Ich wäre froh, wenn in der EU und in der Tschechischen Republik mehr über die Nützlichkeit gesprochen würde. Außerdem habe ich nicht ganz verstanden, was alles unter der Definition von KI fällt (z.B. nur SW oder auch HW). Warum sollte KI anders betrachtet werden als andere Systeme?

Artikel: https://www.lupa.cz/clanky/tvurci-umele-inteligence-budou-muset-pred-soudem-dokazovat-ze-neskodili/

Richtlinie: https://ec.europa.eu/info/sites/default/files/1_1_197605_prop_dir_ai_en.pdf

Ursprünglich veröffentlicht auf Facebook — Link zum Post

Původní zdroj: facebook

Související články