Blog

Der älteste Blog über KI in Tschechien

Wir schreiben über künstliche Intelligenz seit 2017. 1000+ Artikel, Tausende von Seiten voller Gedanken, Experimente und Reflexionen. Ohne Sensationen, ohne Werbung.

Tag-Filter: BERT × abbrechen

Nach Themen durchsuchen

Angezeigt 7 von 7 Artikeln

Neuer Champion auf der Bühne?Archiv 2021
1 min

Neuer Champion auf der Bühne?

Das Sprachmodell Switch Transformer von Google ist fast sechsmal größer als GPT-3! Der Switch Transformer hat 9x mehr Parameter, also 1,6 Billionen. Google hat die…

Lesen
Rückblick auf das letzte JahrzehntArchiv 2021
1 min

Rückblick auf das letzte Jahrzehnt

Man findet dort zwar nicht das Jahr 2020 oder GPT, aber insgesamt ist es sehr gelungen :) https://towardsdatascience.com/the-decade-of-artificial…

Lesen
Ergebnisse der KI wurden auf der NeurIPS-Konferenz untersucht. Was wurde erreicht?Archiv 2019
1 min

Ergebnisse der KI wurden auf der NeurIPS-Konferenz untersucht. Was wurde erreicht?

Vor kurzem fand in Vancouver, Kanada, die Konferenz Neural Information Processing Systems (NeurIPS) statt, auf der sich mehr als 13.000 Wissenschaftler aus verschiedenen Bereichen versammelten….

Lesen
Ein weiterer Kurs abgeschlossenArchiv 2019
1 min

Ein weiterer Kurs abgeschlossen

Ich habe gerade den Kurs „Learn BERT – most powerful NLP algorithm by Google“ abgeschlossen. Es ist ein fortgeschrittener Kurs, der sowohl theoretisch als auch praktisch mit dem…

Lesen
Das neueste Modell der künstlichen Intelligenz zur Verarbeitung natürlicher Sprache – ALBERT!Archiv 2019
2 min

Das neueste Modell der künstlichen Intelligenz zur Verarbeitung natürlicher Sprache – ALBERT!

Unter den besten Modellen der künstlichen Intelligenz zur Verarbeitung natürlicher Sprache (Bert, Robert, GPT-2 oder Megatron) ist letzte Woche ein weiterer Spieler aufgetaucht: ALBERT! ALBERT wird uns von den Unternehmen…

Lesen
Das Unternehmen Nvidia hat angekündigt, dass es das größte Sprachmodell der Welt, GPT-2 8B, trainiert hat!Archiv 2019
1 min

Das Unternehmen Nvidia hat angekündigt, dass es das größte Sprachmodell der Welt, GPT-2 8B, trainiert hat!

Das Modell verwendet 8,3 Milliarden Parameter und ist 24-mal größer als BERT und 5-mal größer als das bisher größte GPT-2 von OpenAI. Nvidia hat Parallelität genutzt, die…

Lesen
Das Unternehmen Google hat diese Woche sein neuestes technologisches Spielzeug veröffentlicht – Bidirectional Encoder Representations Transformers, kurz BERTArchiv 2018
1 min

Das Unternehmen Google hat diese Woche sein neuestes technologisches Spielzeug veröffentlicht – Bidirectional Encoder Representations Transformers, kurz BERT

Inwiefern unterscheidet sich BERT von klassischen NLP-Modellen wie word2vec und GloVe? Word2vec und andere Modelle erzeugen kontextfreie Wortdarstellungen. Jedes Wort…

Lesen