Es scheint, dass das Wunderzeitalter der künstlichen Intelligenz sich ständig beschleunigt. Jeden Tag erhalte ich…
Es scheint, dass das Wunderzeitalter der künstlichen Intelligenz sich ständig beschleunigt. Jeden Tag erhalte ich einige interessante Neuigkeiten darüber, wie man künstliche Gehirne beschleunigen, verbessern oder präzisieren kann. Es tauchen weitere großartige Datensätze und Modelle auf. 🤖

Es scheint, dass das Wunderzeitalter der künstlichen Intelligenz sich ständig beschleunigt. Jeden Tag erhalte ich einige interessante Neuigkeiten darüber, wie man künstliche Gehirne beschleunigen, verbessern oder präzisieren kann. Es tauchen weitere großartige Datensätze und Modelle auf. 🤖
Wir haben beispielsweise ein Spitzenmodell zur Generierung von freiem Text, GPT-J-6B, das besser ist als GPT-Neo😎. Zwei Enthusiasten haben ein wunderschönes Modell mit 6 Milliarden Parametern auf einem TPU in 5 Wochen trainiert.
Ein schnelles, präzises und zugängliches Programm ist erschienen, das zwischen Tschechisch und Englisch deutlich besser übersetzt als etwa der Google Translator, und es heißt DeepL🧐.
Und schließlich, was vielleicht am interessantesten ist, stellte die Pekinger Akademie für künstliche Intelligenz (BAAI) am 1. Juni das Modell Wu Dao 2.0 (chinesisch für Erleuchtung) vor. Dieses Netzwerk ist das größte neuronale Netzwerk, das jemals geschaffen wurde, und wahrscheinlich das leistungsstärkste. Es verbessert das ursprüngliche Wu Dao, ist erst seit wenigen Tagen bei uns und schon kursieren Legenden darüber im Internet.😈
Wenn das 19. Jahrhundert das Jahrhundert des Dampfes war und das 20. Jahrhundert das Jahrhundert des Stroms, dann ist das 21. Jahrhundert das Jahrhundert der Computer, Informationen, des Internets und der künstlichen Intelligenz. Oder wie AI🤖 es formulierte, als sie mir half, diesen Artikel zu schreiben: Die Ära der künstlichen Intelligenz ist nichts weniger als eine Revolution!🥳
Quellen: • https://arankomatsuzaki.wordpress.com/2021/06/04/gpt-j/ • https://www.deepl.com/translator • https://towardsdatascience.com/gpt-3-scared-you-meet-wu-dao-2-0-a-monster-of-1-75-trillion-parameters-832cd83db484
- interessanter Bonus bis zum 17.6.: https://www.ceskatelevize.cz/ivysilani/1098111603-dobrodruzstvi-vedy-a-techniky/421235100121014-clovek-nebo-stroj-tvorba-umeleho-mozku/
Ursprünglich veröffentlicht auf Facebook — Link zum Post
Původní zdroj: facebook
Související články
Dezember 2022
Einige Beispiele für chatGPT. Dieses Modell gehört zur Familie GPT-3.5 (nicht 3, wie oft geschrieben)…
LesenSeptember 2020
In meinem letzten Beitrag habe ich über GPT-3 geschwärmt. Jetzt möchte ich einige meiner letzten Versuche mit verschiedenen Versionen von GPT-3 und Sprache mit Ihnen teilen…
LesenMärz 2023