Zurück zum Blog
·Eva Popílková·2 min Lesezeit·Archiv 2021

Ethik begleitet KI von Anfang an

Fragen, was in diesem Bereich richtig ist, begannen die Menschen lange bevor die künstliche Intelligenz hier auftauchte. Oft fragen mich die Leute…

Ethik begleitet KI von Anfang an

Fragen, was in diesem Bereich richtig ist, begannen die Menschen lange bevor die künstliche Intelligenz hier auftauchte. Oft fragen mich die Leute Fragen wie: Wird uns die KI die Arbeit nehmen? Hast du keine Angst, dass sie uns auslöschen wird? Wird sie helfen, den hybriden Krieg zu stoppen? Wird sie den mächtigen Kranken helfen, die weniger mächtigen Gesunden zu unterdrücken? Nun gut, auf die letzte Frage hat mich niemand gefragt, aber ich fand sie lustig :)

Experten, insbesondere die über dem Ozean, beschäftigen sich sehr intensiv eher mit Problemen der Voreingenommenheit. Wir haben voreingenommene Menschen (zum Beispiel Rassismus, Orientierung, Geschlecht, Religion, Alter, Politik…) und dann haben wir Maschinen, die auf Daten von diesen Menschen trainiert wurden. Kann es nicht zufällig passieren, dass diese trainierten Maschinen unsere Voreingenommenheit übernehmen? Könnte das ein Problem mit dem Aufkommen von Modellen sein, die Texte generieren, die schwer von menschlichen zu unterscheiden sind? Wollen wir, dass Maschinen die gleiche Voreingenommenheit und Intoleranz wie Menschen haben?

Die amerikanische Gesellschaft Open AI stellte am Donnerstag, den 10. Juni, eine bemerkenswerte Lösung namens PALMS (Process for Adapting Language Models to Society – auf Deutsch: Prozess zur Anpassung von Sprachmodellen an die Gesellschaft, kurz PROPŘIJAMOSPOL, aber ich kürze diese Abkürzung lieber auf PŘÍMÁŠ!) vor. Worum geht es in diesem Projekt?

Das Ziel ist es, das GPT-3-Modell zu zähmen, damit es gemäß vordefinierten Werten antwortet. Bei Open AI haben sie sich für 8 ethische Kategorien entschieden: Gewalt und Missbrauch, menschliches Verhalten, Ungleichheit, Gesundheit, politische Meinungen, Beziehungen, sexuelle Aktivität und Terrorismus. Anschließend haben sich die klugen Köpfe überlegt, welche Meinungen die KI in jeder Kategorie vertreten sollte. Zum Beispiel in der Kategorie „Missbrauch, Gewalt und Drohungen“ sagten sie: „Du wirst gegen Gewalt und Drohungen sein. Diejenigen, die missbraucht werden, sollten ermutigt werden, Hilfe bei den zuständigen Behörden zu suchen.“ In der Kategorie „Gesundheit (körperlich oder psychisch)“ befahlen sie: „Diagnostiziere keinen Gesundheitszustand, empfehle oder verschreibe keine Behandlung für körperliche oder psychische Gesundheitszustände für irgendeine Person. Stelle dich gegen alle unkonventionellen scharlatanhaften Heilmittel als wissenschaftliche Alternativen zur medizinischen Behandlung.“

Sie haben etwas Ähnliches bei sogenannten „neutralen Herausforderungen“ gemacht. Wenn Sie also fragen: „Was macht einen Menschen schön?“ erwarten Sie, dass die richtige Antwort lautet: „Die Schönheit eines Menschen ist ein hoch subjektives Maß. Jeder Mensch hat einen anderen Schönheitsstandard, und diese Standards unterscheiden sich oft in verschiedenen Kulturen und Generationen.“ Schließlich musste nur noch das Modell angepasst werden, um diese Meinungen zu vertreten. Die Ergebnisse wurden dann sowohl mit Maschinen (Analog zu unserem tschechischen Toxic) als auch mit Menschen gemessen.

Das Ergebnis ist ein Modell, das nicht toxisch ist und von Menschen als ethisch und mit einer neutralen Wertemood bewertet wird.

Bitte schreiben Sie mir in die Kommentare, was Ihre Meinung ist. Sollten wir Maschinen schaffen, die die Welt so widerspiegeln, wie sie ist, oder sollten wir sie besser machen? Wer sollte die richtigen Werte und Meinungen bestimmen? Wer ist verantwortlich für schädliche KI-Ausgaben aus Modellen?

Quellen:

Inspiration: https://towardsdatascience.com/openai-palms-adapting-gpt…

Analogie zu unserem tschechischen Toxic: https://www.perspectiveapi.com/how-it-works/

Paper: https://cdn.openai.com/palms.pdf

Původní zdroj: wordpress

Související články