Zurück zum Blog
·Honza Tyl·1 min Lesezeit·Archiv 2018

Möchten Sie Ihre Gehirnzellen im Bereich NLP trainieren?

Möchten Sie Ihre Gehirnzellen im Bereich NLP – Verarbeitung natürlicher Sprache – trainieren? Ich habe eine anspruchsvolle Aufgabe für Sie, die ich gerade erhalten habe und…

Möchten Sie Ihre Gehirnzellen im Bereich NLP trainieren?

Möchten Sie Ihre Gehirnzellen im Bereich NLP – Verarbeitung natürlicher Sprache – trainieren? Ich habe eine anspruchsvolle Aufgabe für Sie, die ich gerade erhalten habe und in der „Russischen Schule“ gelöst habe.

Lassen Sie uns das „Hidden Markov Model“ mit drei verborgenen Zuständen üben: N (noun = Substantiv), V (verb = Verb) und O (other = anderes Wort). Nehmen wir an, dass alle Übergänge zwischen den einzelnen Zuständen gleichwertig sind (d.h. die gleiche Wahrscheinlichkeit haben).

Angenommen, die folgenden möglichen Ausgaben sind:
N: mimsy | borogoves
V: were | borogoves
O: All | mimsy | the

Jetzt testen wir diesen Satz: „All mimsy were the borogoves“.

Kontrollfragen für Sie:

  1. Welche Tags können wir gemäß dem Hidden Markov Model (verborgenes Markov-Modell) erstellen (z.B. ONVON…)?
  2. Welches Tag hat die höchste Wahrscheinlichkeit (Achtung, ein kleiner Trick)?
  3. Die Übergangswahrscheinlichkeit p (V | O), also von O nach V, beträgt in diesem Modell 1/3. Berechnen Sie eine Interaktion des Baum-Welch-Algorithmus und sagen Sie, wie sich die Wahrscheinlichkeit ändert (Hinweis: Es ist notwendig, die Wahrscheinlichkeiten für (O -> V) und (O->?) zu schätzen und ihr Verhältnis zu berechnen).

Herausforderung: Derjenige, der hier als Erster alle drei richtigen Antworten schreibt, bekommt von mir ein Bier!

Inspiration für die Aufgabe: https://www.coursera.org/le…/language-processing/home/week/2

Foto des Benutzers Künstliche Intelligenz.

Foto des Benutzers Künstliche Intelligenz.

Původní zdroj: wordpress

Související články