{"id":4184,"date":"2025-05-24T11:08:30","date_gmt":"2025-05-24T08:08:30","guid":{"rendered":"https:\/\/demensdeum.com\/blog\/2025\/05\/24\/vibe-coding-tricks\/"},"modified":"2025-05-24T11:22:39","modified_gmt":"2025-05-24T08:22:39","slug":"vibe-coding-tricks","status":"publish","type":"post","link":"https:\/\/demensdeum.com\/blog\/de\/2025\/05\/24\/vibe-coding-tricks\/","title":{"rendered":"Vibe-Core-Tricks: Warum LLM immer noch nicht mit festem, trockenem und sauberem funktioniert"},"content":{"rendered":"<p>Mit der Entwicklung von gro\u00dfsprachigen Modellen (LLM) wie Chatgpt verwenden immer mehr Entwickler sie, um Code, Designarchitektur und Beschleunigung der Integration zu generieren. Bei der praktischen Anwendung wird jedoch sp\u00fcrbar: Die klassischen Prinzipien der Architektur &#8211; solide, trocken, sauber &#8211; verstehen Sie die Besonderheiten der LLM -Codgendation schlecht.<\/p>\n<p>Dies bedeutet nicht, dass die Prinzipien veraltet sind &#8211; im Gegenteil, sie arbeiten perfekt zur manuellen Entwicklung. Aber mit LLM muss der Ansatz angepasst werden.<\/p>\n<p>Warum LLM nicht mit architektonischen Prinzipien fertig werden kann<\/p>\n<h2> Kapselung <\/ h2><\/h2>\n<p>Die Zusammenfassung erfordert das Verst\u00e4ndnis der Grenzen zwischen Teilen des Systems, Kenntnissen \u00fcber die Absichten des Entwicklers sowie den strengen Zugriffsbeschr\u00e4nkungen. LLM vereinfacht h\u00e4ufig die Struktur, macht Felder ohne Grund \u00f6ffentlich oder dupliziert die Implementierung. Dies macht den Code anf\u00e4lliger f\u00fcr Fehler und verst\u00f6\u00dft gegen die architektonischen Grenzen.<\/p>\n<h2> Abstracts und Schnittstellen <\/ h2><\/h2>\n<p>Entwurfsmuster wie eine abstrakte Fabrik oder Strategie erfordern eine ganzheitliche Sicht des Systems und das Verst\u00e4ndnis seiner Dynamik. Modelle k\u00f6nnen eine Schnittstelle ohne klaren Zweck erstellen, ohne die Implementierung zu gew\u00e4hrleisten, oder gegen die Verbindung zwischen Schichten versto\u00dfen. Das Ergebnis ist eine \u00fcbersch\u00fcssige oder nicht funktionsf\u00e4hige Architektur.<\/p>\n<h2> trocken (Donolt wiederholt sich) <\/ H2><\/h2>\n<p>LLM bem\u00fcht sich nicht, den sich wiederholenden Code zu minimieren &#8211; im Gegenteil, es ist f\u00fcr sie einfacher, Bl\u00f6cke zu duplizieren, als allgemeine Logik zu erstellen. Obwohl sie auf Anfrage auf Anfrage eingerichtet werden k\u00f6nnen, neigen Modelle neigen dazu, \u201eselbstfassende\u201c Fragmente zu erzeugen, auch wenn dies zu Redundanz f\u00fchrt.<\/p>\n<h2> saubere Architektur <\/ h2><\/h2>\n<p>Clean impliziert eine strenge Hierarchie, Unabh\u00e4ngigkeit von Frameworks, gerichtete Abh\u00e4ngigkeit und minimale Verbindung zwischen Schichten. Die Erzeugung einer solchen Struktur erfordert ein globales Verst\u00e4ndnis des Systems &#8211; und LLM arbeiten auf der Ebene der Wahrscheinlichkeit von W\u00f6rtern, nicht auf architektonischer Integrit\u00e4t. Daher ist der Code unter Versto\u00df gegen die Anweisungen der Abh\u00e4ngigkeit und eine vereinfachte Aufteilung in Ebenen gemischt.<\/p>\n<h2> Was funktioniert besser bei der Arbeit mit LLM <\/ H2><\/h2>\n<p>Nass statt trocken<br \/>\nDer nasses (zweimal alles schreiben) ist praktischer bei der Arbeit mit LLM. Die Duplikation von Code erfordert keinen Kontext aus dem Modell der Aufbewahrung, was bedeutet, dass das Ergebnis vorhersehbar ist und einfacher zu korrekt ist. Es reduziert auch die Wahrscheinlichkeit von nicht offenen Verbindungen und Fehler.<\/p>\n<p>Dar\u00fcber hinaus hilft die Duplikation, den kurzen Speicher des Modells zu kompensieren: Wenn ein bestimmtes Logikfragment an mehreren Stellen gefunden wird, ber\u00fccksichtigt LLM es mit gr\u00f6\u00dferer Wahrscheinlichkeit mit weiterer Generation. Dies vereinfacht die Begleitung und erh\u00f6ht den Widerstand gegen &#8220;Vergessen&#8221;.<\/p>\n<h2> einfache Strukturen anstelle von Kapselung <\/ H2><\/h2>\n<p>Vermeiden Sie eine komplexe Kapselung und st\u00fctzen sich auf die direkte \u00dcbertragung von Daten zwischen den Teilen des Codes und k\u00f6nnen sowohl die Generation als auch das Debuggen erheblich vereinfachen. Dies gilt insbesondere f\u00fcr eine schnelle iterative Entwicklung oder Schaffung von MVP.<\/p>\n<h2> vereinfachte Architektur <\/ H2><\/h2>\n<p>Eine einfache, flache Struktur des Projekts mit einer minimalen Menge an Abh\u00e4ngigkeiten und Abstraktionen liefert w\u00e4hrend der Erzeugung ein stabileres Ergebnis. Das Modell passt einen solchen Code leichter an und verletzt die erwarteten Verbindungen zwischen den Komponenten.<\/p>\n<h2> SDK -Integration &#8211; Manuell zuverl\u00e4ssig <\/H2><br \/>\nDie meisten Sprachmodelle werden auf veralteten Dokumentationsversionen geschult. Bei der Erstellung von Anweisungen zur Installation von SDK werden daher h\u00e4ufig Fehler angezeigt: veraltete Befehle, irrelevante Parameter oder Links zu unzug\u00e4nglichen Ressourcen. Praxis zeigt: Es ist am besten, offizielle Dokumentation und manuelle Abstimmung zu verwenden und LLM eine Hilfsrolle zu hinterlassen &#8211; beispielsweise eine Vorlagencode oder eine Anpassung von Konfigurationen zu generieren.<\/p>\n<h2> Warum funktionieren die Prinzipien noch &#8211; aber mit manueller Entwicklung <\/ h2><\/h2>\n<p>Es ist wichtig zu verstehen, dass die Schwierigkeiten von festem, trockenem und sauberem Zusammenhang die Codhegeneration durch LLM betreffen. Wenn der Entwickler den Code manuell schreibt, demonstrieren diese Prinzipien weiterhin seinen Wert: Sie reduzieren die Verbundenheit, vereinfachen die Unterst\u00fctzung und erh\u00f6hen die Lesbarkeit und Flexibilit\u00e4t des Projekts.<\/p>\n<p>Dies liegt an der Tatsache, dass menschliches Denken anf\u00e4llig f\u00fcr die Verallgemeinerung ist. Wir suchen nach Mustern, wir bringen wiederholte Logik in einzelne Entit\u00e4ten und erstellen Muster. Wahrscheinlich hat dieses Verhalten evolution\u00e4re Wurzeln: Reduzierung der Anzahl der Informationen spart kognitive Ressourcen.<\/p>\n<p>LLM handelt anders: Sie erleben keine Lasten aus dem Datenvolumen und streben nicht nach Einsparungen. Im Gegenteil, es ist f\u00fcr sie einfacher, mit doppelten, fragmentierten Informationen zu arbeiten, als komplexe Abstraktionen aufzubauen und aufrechtzuerhalten. Aus diesem Grund ist es f\u00fcr sie einfacher, mit dem Code ohne Kapselung fertig zu werden, mit wiederholenden Strukturen und minimaler architektonischer Schwere.<\/p>\n<h2> Schlussfolgerung <\/ H2><\/h2>\n<p>Gro\u00dfsprachenmodelle sind ein n\u00fctzliches Instrument in der Entwicklung, insbesondere in den fr\u00fchen Stadien oder beim Erstellen eines Hilfscode. Es ist jedoch wichtig, den Ansatz an sie anzupassen: die Architektur zu vereinfachen, die Abstraktion zu begrenzen, komplexe Abh\u00e4ngigkeiten zu vermeiden und bei der Konfiguration von SDK nicht auf sie zu verlassen.<\/p>\n<p>Die Prinzipien von fester, trocken und sauber sind immer noch relevant, aber sie haben den besten Effekt in den H\u00e4nden einer Person. Bei der Arbeit mit LLM ist es vern\u00fcnftig, einen vereinfachten, praktischen Stil zu verwenden, der es Ihnen erm\u00f6glicht, einen zuverl\u00e4ssigen und verst\u00e4ndlichen Code zu erhalten, der leicht manuell abschlie\u00dfen kann. Und wo LLM vergisst &#8211; die Duplizierung von Code hilft ihm, sich zu erinnern.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Mit der Entwicklung von gro\u00dfsprachigen Modellen (LLM) wie Chatgpt verwenden immer mehr Entwickler sie, um Code, Designarchitektur und Beschleunigung der Integration zu generieren. Bei der praktischen Anwendung wird jedoch sp\u00fcrbar: Die klassischen Prinzipien der Architektur &#8211; solide, trocken, sauber &#8211; verstehen Sie die Besonderheiten der LLM -Codgendation schlecht. Dies bedeutet nicht, dass die Prinzipien veraltet<a class=\"more-link\" href=\"https:\/\/demensdeum.com\/blog\/de\/2025\/05\/24\/vibe-coding-tricks\/\">Continue reading <span class=\"screen-reader-text\">&#8220;Vibe-Core-Tricks: Warum LLM immer noch nicht mit festem, trockenem und sauberem funktioniert&#8221;<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[61,52],"tags":[],"class_list":["post-4184","post","type-post","status-publish","format-standard","hentry","category-techie","category-tutorials","entry"],"translation":{"provider":"WPGlobus","version":"3.0.2","language":"de","enabled_languages":["en","ru","zh","de","fr","ja","pt","hi"],"languages":{"en":{"title":true,"content":true,"excerpt":false},"ru":{"title":true,"content":true,"excerpt":false},"zh":{"title":true,"content":true,"excerpt":false},"de":{"title":true,"content":true,"excerpt":false},"fr":{"title":true,"content":true,"excerpt":false},"ja":{"title":true,"content":true,"excerpt":false},"pt":{"title":true,"content":true,"excerpt":false},"hi":{"title":false,"content":false,"excerpt":false}}},"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/posts\/4184","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/comments?post=4184"}],"version-history":[{"count":1,"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/posts\/4184\/revisions"}],"predecessor-version":[{"id":4185,"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/posts\/4184\/revisions\/4185"}],"wp:attachment":[{"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/media?parent=4184"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/categories?post=4184"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/demensdeum.com\/blog\/de\/wp-json\/wp\/v2\/tags?post=4184"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}