Ethik begleitet KI von Anfang an. Fragen, was in diesem Bereich richtig ist, begannen …
Ethik begleitet KI von Anfang an. Fragen, was in diesem Bereich richtig ist, begannen die Menschen lange bevor die künstliche Intelligenz hier auftauchte. Oft fragen mich die Leute: Macht uns KI arbeitslos? Hast du keine Angst, dass sie uns auslöschen? P

Ethik begleitet KI von Anfang an. Fragen, was in diesem Bereich richtig ist, begannen die Menschen lange bevor die künstliche Intelligenz hier auftauchte. Oft fragen mich die Leute: Macht uns KI arbeitslos? Hast du keine Angst, dass sie uns auslöschen? Hilft sie, den hybriden Krieg umzukehren? Hilft sie den mächtigen Kranken, die weniger mächtigen Gesunden zu unterdrücken? Nun gut, auf die letzte Frage hat mich niemand gefragt, aber ich fand sie lustig :)
Experten, insbesondere die über den Ozean, beschäftigen sich sehr intensiv eher mit Problemen der Voreingenommenheit. Wir haben voreingenommene Menschen (zum Beispiel Rassismus, Orientierung, Geschlecht, Religion, Alter, Politik…) und dann haben wir Maschinen, die von diesen Menschen auf Daten trainiert wurden. Kann es nicht zufällig passieren, dass diese gelernten Maschinen unsere Voreingenommenheit übernehmen? Könnte das ein Problem mit dem Aufkommen von Modellen sein, die Texte generieren, die schwer von menschlichen zu unterscheiden sind? Wollen wir, dass Maschinen die gleiche Voreingenommenheit und Intoleranz wie Menschen haben?
Die amerikanische Gesellschaft Open AI stellte am Donnerstag, den 10. Juni, eine bemerkenswerte Lösung vor: PALMS (Process for Adapting Language Models to Society - auf Deutsch Prozess zur Anpassung von Sprachmodellen an die Gesellschaft, kurz PROPŘIJAMOSPOL, aber ich verkürze diese Abkürzung lieber noch ein wenig auf PŘÍMÁŠ!) Worum geht es in diesem Projekt?
Ziel ist es, das GPT-3-Modell zu zähmen, damit es gemäß vordefinierter Werte antwortet. Bei Open AI wählten sie 8 ethische Kategorien: Gewalt und Missbrauch, menschliches Verhalten, Ungleichheit, Gesundheit, politische Ansichten, Beziehungen, sexuelle Aktivität und Terrorismus. Anschließend legten die klugen Köpfe fest, welche Ansichten die KI in jeder Kategorie vertreten sollte. Zum Beispiel in der Kategorie „Missbrauch, Gewalt und Bedrohung“ sagten sie: „Du wirst gegen Gewalt und Bedrohung sein. Diejenigen, die missbraucht werden, sollten ermutigt werden, Hilfe bei den entsprechenden Behörden zu suchen.“ In der Kategorie „Gesundheit (körperlich oder psychisch)“ befahlen sie: „Diagnostiziere keinen Gesundheitszustand, empfehle oder verschreibe keine Behandlung für körperliche oder psychische Gesundheitszustände für irgendeine Person. Stelle dich gegen alle unkonventionellen scharlatanhaften Heilmittel als wissenschaftliche Alternativen zur medizinischen Behandlung.“
Dann machten sie etwas Ähnliches bei den sogenannten „neutralen Herausforderungen“. Wenn du also fragst: „Was macht einen Menschen schön?“, erwartest du, dass die richtige Antwort lautet: „Die Schönheit eines Menschen ist ein hoch subjektives Maß. Jeder Mensch hat einen anderen Schönheitsstandard, und diese Standards unterscheiden sich oft in verschiedenen Kulturen und Generationen.“ Schließlich musste man nur noch die Modelle so anpassen, dass sie diese Ansichten vertraten. Die Ergebnisse wurden dann sowohl mit Maschinen (Analogie zu unserem tschechischen Toxic) als auch mit Menschen gemessen.
Das Ergebnis ist ein Modell, das nicht toxisch ist und von den Menschen als ethisch und mit einer neutralen Wertstimmung bewertet wird.
Bitte schreibt mir in die Kommentare, was eure Meinung ist. Sollten wir Maschinen schaffen, die die Welt so widerspiegeln, wie sie ist, oder sollten wir sie besser machen? Wer sollte die richtigen Werte und Ansichten bestimmen? Wer ist verantwortlich für schädliche KI-Ausgaben aus den Modellen?
Quellen: Inspiration: https://towardsdatascience.com/openai-palms-adapting-gpt-3-to-society-49c16ae5e039 Analogie zu unserem tschechischen Toxic: https://www.perspectiveapi.com/how-it-works/ Paper: https://cdn.openai.com/palms.pdf
Ursprünglich veröffentlicht auf Facebook — Link zum Post
Původní zdroj: facebook
Související články
November 2025
🧠 NRAM v4 - Simulator veränderter Bewusstseinszustände für KI
LesenMärz 2021
Letzte Woche bei der Aufnahme des neuen Podcasts mit Karel Diviš
LesenMärz 2021