Tags

#LLM

Alles zu LLMs, Sprachmodellen und ihrem Einsatz im Alltag und beim Arbeiten.

How to reduce your token footprint

https://olereissmann.com/how-to-reduce-your-token-footprint/

EIn ein Überlebensguide für die KI-Ökonomie.

My Adventures With ‘The AI That Actually Does Things’

https://nymag.com/intelligencer/article/my-adventures-setting-up-openclaw-agent.html

Niemand weiß so richtig, wofür man das im Alltag wirklich braucht. Und mit der Frickelei ist man im Endeffekt dann langsamer, als wenn man's einfach gleich machen würde. Finde das eine spannende Sichtweise, die John Herrman hier zeigt.

Warum ist KI-Text so schlecht?

https://gregorschmalzried.blog/p/warum-ist-ki-text-so-schlecht

Gregor analysiert das Unbehagen an KI-Texten, die zwar die Struktur guten Storytellings (Spannung und Pointe) imitieren, aber mangels menschlicher Substanz nur leere Worthülsen produzieren. Und er baut den Moth-Witz ein!

Social Media: „Mit KI-Schrott erreichen Sie nicht viele Menschen“

https://www.handelsblatt.com/technik/it-internet/social-media-mit-ki-schrott-erreichen-sie-nicht-viele-menschen/100212662.html

Und das bei LinkedIn 👀

They solved AI hallucinations!

watch https://youtube.com/watch?v=1ONwQzauqkc&is=hso66-1h97HT1MXv

/via und ich fühle mich irgendwie gerade wie in einem Science-Fiction-Roman: WIr nutzen eine Technik, und finden langsam erst raus wie sie funktioniert und am Ende ist es doch um einiges simpler, als man glaubt, aber so richtig verstehen kann man es nicht. (Dazu)[https://hnz.io/bookmarks/h-neurons-on-the-existence-impact-and-origin-of-hallucination-associated-neurons-in-llms-sc-20260330131657].