Von Autocomplete zu Agentic AI: Erkenntnisse der Better Code: GenAI 2026

Die „Better Code: GenAI“ beschäftigte sich am 29. Januar mit den aktuellen Entwicklungen im Bereich Programmieren und Coden mit der Unterstützung durch die künstliche Intelligenz (kurz als KI oder AI bezeichnet).

Diese Konferenz fand nun zum dritten Mal statt und verdeutlichte die Entwicklung, welche die KI in den vergangenen Monaten genommen hat. Außerdem gab es einige Prognosen über die Zukunft der Künstlichen Intelligenz.

In insgesamt sechs Programmpunkten bot sich mir die Gelegenheit, Einblicke in unterschiedliche Disziplinen der Programmierung mit KI zu erhalten.  Obwohl jeder Vortrag eine einzelne Facette des KI-unterstützten Programmierens betrachtet, zeigte sich schnell, dass die Künstliche Intelligenz Chancen und Risiken, aber auch Vorteile und Herausforderungen bietet.

Da sich dieses bereits im Anfang der Veranstaltung ankündigte, hatte ich hohe Erwartungen und wurde auch nicht enttäuscht. Vielmehr bot die thematische Vielfalt für mich als Teilnehmerin die Gelegenheit neue Strategien zu erarbeiten und Verwendungsmöglichkeiten fernab von Text- und Bildgenerierung kennen zu lernen.

Ein Fakt zog sich sich jedoch durch alle Beiträge der Experten: Wer KI in seine Arbeitsprozesse integrieren möchte, muss sie selbst zunächst beherrschen und die Abläufe selbst optimal umsetzen und anleiten können.

Somit befindet sich die KI aktuell in etwa auf der Stufe eines Menschen in Ausbildung, der eine möglichst spezifische Anleitung und abschließende Überprüfung des Ergebnisses, sowie anschließender Korrekturen und Reviews bedarf.  Dies bedeutet aber auch, dass jeder für sich selbst Strategien erarbeiten sollte, um sich bestmöglich unterstützen zu lassen. Die KI ist jedoch kein Tool, das den Meschen und seine erworbene Expertise zum jetzigen Zeitpunkt vollständig ersetzen kann.

Goetz Markgraf & Janine Felten: KI-gestützte Softwareentwicklung – Effizienz und Qualität durch Agentic AI

Künstliche Intelligenz hat in den vergangenen Monaten einige Entwicklungsschritte durchlaufen, wodurch sich das Nutzungsverhalten verändert und die Qualität der Ergebnisse verbessert hat. Gleichzeitig hat die KI sich durch dieses veränderte Nutzungsverhalten weiterentwickelt, was auf Basis des Maschinellen Lernens zu einer Art Kreislauf führt oder führen kann.

Goetz Markgraf verglich die Entwicklung der KI mit der Möglichkeit des Autonomen Fahrens eines Autos. Ein Schaubild diente hier als Vergleich und veranschaulicht die Parallelität der Ereignisse. Das Schaubild in seiner zum Vortrag gehörenden Präsentation half besonders diesen Vergleich zu verinnerlichen und den Ist-Zustand von KI zu bestimmen.

Aktuell befindet sich KI auf einem Weg mit fünf Etappen. Drei Etappen haben die meisten von uns bereits absolviert. Wir verwenden KI ähnlich wie wir Assistenzsysteme im Auto mit einer gewissen Selbstverständlichkeit nutzen, lassen sie aber aktuell noch nicht unkontrolliert auf Autopilot laufen.

Durch den Einsatz mehrerer spezialisierter KI-Agents gelingt es uns als Nutzer komplexere Tätigkeiten effizienter zu bearbeiten und dabei zu einem besseren Ergebnis zu gelangen, wenn wir diese Agents miteinander vernetzen. Goetz Markgraf und Janine Felten zeigten uns als Teilnehmende nicht nur die technische Entwicklung auf, sondern reicherten ihren gemeinsamen Vortrag durch Live Coding an und führten uns als Zuhörende ebenso unterhaltsam wie informativ ins Thema ein.

Rainer Stropek: Vom Autocomplete zu autonomen Coding Agents – Markt, Modelle & Trends

Rainer Stropek macht klar: Autocomplete und GitHub Copilot erleichtern Ihr Tippen, sie ersetzen aber nicht Ihr Verständnis für ein Projekt. Für Einsteiger sind solche Tools hilfreich, um schneller zu schreiben, sie liefern jedoch keine sicheren oder passenden Lösungen ohne grundlegendes Fachwissen.

Wesentlich ist das Prinzip Kontext: Nützliche Vorschläge benötigen verlässliche Informationen wie Tests, Bibliotheksangaben und kurze Dokumentation. Tests beschreiben, was Code tun soll; Angaben zu Bibliotheken zeigen Kompatibilität und mögliche Risiken; Dokumentation erklärt Zweck und Nutzung. Fehlen diese Grundlagen, sind automatische Vorschläge oft unpassend.

Nutzen Sie Assistenten als Vorschlagsgeber, niemals als endgültige Entscheider. Prüfen Sie jeden Vorschlag lokal in einer geschützten Umgebung, passen Sie ihn an und testen Sie ihn, bevor Sie ihn ins Projekt übernehmen. Halten Sie zudem fest, wer welche Änderung vorgeschlagen oder übernommen hat, damit Fehler später leichter auffindbar sind.

Komplexe Integrationen, Sicherheitsfragen und Architekturentscheidungen bleiben Aufgabe von Menschen. Als Einsteiger sollten Sie sich auf überschaubare Aufgaben mit Assistenten konzentrieren: einfache Funktionen schreiben, Tests generieren und Kommentare verbessern. So lernen Sie die Werkzeuge kontrolliert kennen.

Als Teilnehmer oder Interessierter der „BetterCode: GenAI 2026“ gewinnen Sie durch diese Veranstaltung Orientierung, welche Praktiken und Tools sich in der Praxis bewähren. Nutzen Sie die Insights, um Pilotprojekte bewusst zu wählen, Standards für Tests und Dokumentation zu etablieren und Agenten zunächst nur Vorschläge erzeugen zu lassen. So minimieren Sie Risiken und bauen schrittweise Vertrauen in den produktiven Einsatz von Generativer Künstlicher Intelligenz auf.

Marc Gehrke: Von Autocomplete zu Agentic Testing: Testgenerierung mit Code Knowledge Graph

Marc Gehrke benennt das Kernproblem knapp: In großen, verteilten Codebasen geht Kontext verloren. Dateigrenzen, versteckte Abhängigkeiten und zersplitterte Domänenlogik machen klassische Volltext‑Retrievals unbrauchbar, weil sie zu viel irrelevantes Material liefern.

Seine Antwort ist präzise: CodeGraph kombiniert eine Graphdatenbank, die Codeobjekte und ihre Beziehungen explizit modelliert, mit LLM‑Agenten, die nur auf einem zielgerichteten Subgraphen operieren. Dadurch wird Scoping nicht mehr heuristisch, sondern regel‑ und beziehungsgetrieben.

Der Vorteil zeigt sich sofort. Agenten bearbeiten deutlich weniger Rauschen und benötigen weniger Tokens, weil nur relevante Knoten und Pfade berücksichtigt werden; das erhöht die Treffgenauigkeit und macht Retrieval‑Ergebnisse deterministischer.

Gehrke beschreibt Muster für Queries und Scoring, etwa die Auswahl relevanter Call‑Paths, Reachability‑Grenzen (Hops), Ownership‑Filter und Risiko‑Flags, die aus einer unübersichtlichen Codebasis eine fokussierte Arbeitsmenge für Agenten machen.

Für Testing und Refactoring operieren Agenten auf Subgraphen, generieren Tests, konstruieren Inputs und schlagen Absicherungen vor; jedes erzeugte Artefakt wird mit Metadaten versehen — Ursprung, angenommene Inputs, Scope und Confidence — sodass Nachvollziehbarkeit und Auditierbarkeit gewährleistet sind.

Betriebsseitig empfiehlt er Guardrails wie differenzierte Zugriffskonzepte, Monitoring von Agentenentscheidungen, Kostenlimits und Skalierungsmechanismen; Governance dient dabei als Rahmen für Vertrauen und Produktivität, nicht als Bremse.

Seine Grundidee mündet in einem hybriden Workflow, in dem Agenten repetitive Arbeiten übernehmen und Entwickler Validierung sowie Verantwortung behalten; die explizite Graph‑Modellierung ist der Hebel, der Relevanz steigert, Kosten senkt und Nachvollziehbarkeit erhöht.

Vibe‑Coding: Ein Panel‑Gespräch mit Goetz Markgraf, Rainer Stropek und Martin Binder

Auch das Panelgespräch gehörte zur „BetterCode: GenAI 2026“ und behandelte die Chancen und Risiken des Vibe‑Codings im Kontext aktueller Praxiserfahrungen und technischer Entwicklungspfade.

Vibe‑Coding bezeichnet die Vorstellung, dass KI im Dialog mit Entwicklerinnen und Entwicklern komplette Anwendungen erzeugt; in der Praxis schafft es vor allem massive Beschleunigung bei Routineaufgaben wie Boilerplate‑Code, Testskeletten, Refactor‑Vorschlägen und schnellen Prototypen. Autocomplete ist zu kontextbewussten Assistenzagenten gereift, die mehrschrittige Aufgaben planen und einfache Integrationen ausführen können, was insbesondere bei gut strukturierten, neuen Projekten spürbare Produktivitätsgewinne bringt.

Trotz dieser Stärken erzeugen Modelle häufig nur plausibel wirkenden Code, der bei genauer Prüfung Fehler, unsaubere Schnittstellen oder Sicherheitslücken verbirgt. In Legacy‑Systemen, bei komplexen Geschäftsregeln und in sicherheitskritischen Domänen steigt das Risiko, dass scheinbar funktionale Ergebnisse später teure technische Schuld erzeugen. Das populäre Narrativ „KI schreibt komplette Apps“ verkennt deshalb die notwendige menschliche Verantwortung.

Gute Resultate sind stark abhängig von Daten, Kontext und Vorarbeit: saubere Spezifikationen, vorhandene Tests und Domänenwissen sind Voraussetzung, damit Agenten brauchbare Entwürfe liefern statt halbfertiger Implementierungen. Sicherheits‑, Datenschutz‑ und Compliance‑Prüfungen bleiben Schwachstellen, da Modelle unsichere Muster reproduzieren oder vertrauliche Informationen versehentlich offenlegen können.

Für produktive Nutzung sind robuste Pipelines unerlässlich. Automatische Scans, Test‑Coverage‑Metriken, kontinuierliches Monitoring und menschliche Reviews müssen integraler Bestandteil des Entwicklungsprozesses sein, damit generierter Code nicht ungeprüft in Produktionsumgebungen gelangt. Entwicklerinnen und Entwickler verschieben ihre Arbeit weg von Boilerplate‑Erzeugung hin zu Architektur, Qualitätssicherung und Policy‑Verantwortung.

Mittelfristig ist mit einer evolutionären Verbesserung zu rechnen: engere Integration von Modellen in IDEs, CI/CD und Wissensgraphen wird semantische Konsistenz erhöhen, und agentische KI wird mehrstufige Aufgabenketten orchestrieren können — stets unter menschlicher Aufsicht. Besonders wirkungsvoll erscheinen Ansätze, die Code‑Knowledge‑Graphs und formale Spezifikationen zur automatischen Testgenerierung und Validierung nutzen.

Praktisch bedeutet das: Vibe‑Coding eignet sich hervorragend für Prototypen, repetitive Aufgaben und schnelle Iteration, darf aber nie die alleinige Autorität sein. Projekte müssen klare Anforderungen, Beispiele und Gatekeeper‑Tests bereitstellen; CI/CD‑Pipelines sollten automatisierte Builds, Tests und Security‑Scans ausführen; kritische Änderungen benötigen verpflichtende menschliche Freigaben; und Deployments müssen durch Laufzeit‑Monitoring abgesichert werden.

Für Einsteiger ist der sicherste Weg, mit nicht‑kritischen Komponenten zu beginnen, wiederholte Tests und Code‑Reviews konsequent durchzuführen und Metriken zur technischen Schuld aufzubauen. Vertrauen in Modelloutputs entsteht erst durch systematische Fehleranalyse, Feedback‑Schleifen und das sukzessive Anreichern von Trainingsdaten mit realen Korrekturen.

Zusammengefasst stellte das BetterCode: GenAI 2026‑Panel Vibe‑Coding als bereits nützlichen, aber kontrollbedürftigen Co‑Pilot dar, der Produktivität und Prototyping deutlich beschleunigt; seine verantwortungsvolle Nutzung erfordert disziplinierte Prozessgestaltung, klare Kontrollmechanismen und unverzichtbare menschliche Expertise, um Risiken zu begrenzen und langfristige Qualität zu sichern.

Martin Binder: Dinosaurier‑Jagd 2.0 – Wie LLM und AgenticAI die Analyse und Transformation von Legacy‑Systemen beschleunigen

Martin Binder beginnt mit einer klaren Diagnose: In vielen Großunternehmen ruhen die Kernsysteme noch immer auf jahrzehntealtem Code, dessen Wissen stark an einzelne Personen gebunden ist. Das macht Ablösungen teuer, fehleranfällig und organisatorisch schwer steuerbar.

Er zeigt, wie Large Language Models sehr schnell ein brauchbares Arbeitsverständnis herstellen können. Solche Modelle erkennen Programmiersprachen, erklären Code‑Snippets und heben Abhängigkeiten hervor, und das in deutlich kürzerer Zeit als klassische Reverse‑Engineering‑Methoden. LLMs liefern Hypothesen, keine Garantien; deshalb empfiehlt Binder strikte Validationsschleifen, Peer‑Reviews und die konsequente Einbettung der Ergebnisse in bestehende Entwicklungsprozesse, damit Vertrauen und Nachvollziehbarkeit wachsen.

Der Vortrag führt weiter zu Agentic‑Ansätzen: Autonome Agenten beschleunigen Analyse und Transformation, weil sie repetitive Explorationen, gezielte Tests und Korrelationsanalysen über Wissensgraphen parallel und kontrolliert ausführen. Dadurch reduzieren sich Durchlaufzeiten und investigative Engpässe lösen sich auf. Entscheidend ist die Instrumentalisierung: Agenten benötigen klar definierte Rechte, Audit‑Logs und Kontrollpunkte. Nur so bleiben Compliance, Sicherheit und Verantwortlichkeit gewahrt, während Automatisierungsvorteile realisiert werden.

Als methodischen und technischen Baukasten stellt Binder das Framework „hosty“ vor. Solche Toolkits verbinden Integration mit Versionskontrolle und Monitoring, implementieren Governance‑Mechanismen und sichern Wissenspersistenz durch Code‑Knowledge‑Graphs. Auf diese Weise werden Erkenntnisse organisational gespeichert und wiederverwendet, was die Wiederholbarkeit und Skalierbarkeit von Transformationen deutlich verbessert.

Anhand konkreter Messgrößen demonstriert Binder die Wirkung: LLMs verkürzen die anfängliche Codeanalyse von Wochen auf Tage, Agenten verringern wiederkehrende Explorationszyklen und erhöhen die Sicherheit bei Transformationsschritten. Diese Effekte summieren sich zu einer spürbaren Beschleunigung von Migrationen und Modernisierungen.

Sein Fazit lautet: Ein hybrides Vorgehen ist am wirksamsten. Menschen steuern Strategie, Kontrolle und Validierung; KI liefert Tempo und Skalierung. Wer Legacy‑Transformationen iterativ und methodisch mit klaren Validationsschleifen durchführt, gewinnt Planbarkeit, Transparenz und deutlich schnellere Ergebnisse. Diese Sicht entspricht den Kerngedanken und Praxisansätzen, die in der Better Code: GenAI‑Veranstaltung präsentiert wurden.

Sebastian Leuer: Security by AI – Stärken und Schwächen KI‑unterstützter, sicherer Softwareentwicklung

Security by Design ist keine optionale Nachbesserung, sondern ein integraler Bestandteil des Software Development Lifecycle. Angriffe auf Anwendungen und der übliche Zeitdruck in Projekten machen klar, dass Sicherheit früh und kontinuierlich gedacht werden muss und nicht als abschließendes Gate, sondern als dauerhafte Disziplin während des gesamten Entwicklungsprozesses implementiert werden sollte.

Künstliche Intelligenz kann in diesem Kontext praktisch unterstützen: Sie ist in der Lage, initiale Bedrohungslisten zu erstellen, Muster in vorhandenen Daten zu erkennen und sichere Code‑Snippets vorzuschlagen. Dadurch werden wiederkehrende Aufgaben beschleunigt und Teams in ihrer Skalierung entlastet. KI korreliert große Datenmengen, automatisiert Routineaufgaben und liefert schnell brauchbare Entwürfe, die die Produktivität erheblich steigern können.

Trotz dieser Vorteile bestehen klare Grenzen. Modelle halluzinieren gelegentlich, treffen kontextkritische Fehlentscheidungen und priorisieren Sicherheitsrelevanz mitunter falsch, insbesondere in domänenspezifischen Szenarien mit begrenzten Trainingsdaten. Aus diesen Gründen darf KI niemals die finale Verantwortung tragen.

Operative Maßnahmen müssen deshalb eindeutig festgelegt werden: Alle KI‑Ergebnisse sind verpflichtend durch qualifizierte Menschen zu prüfen, von der Threat‑Analyse bis zum generierten Code sind automatisierte Tests zu implementieren, und für sämtliche KI‑Entscheidungen sind Audit‑Trails zu führen. Modelle und Prompts sind kontinuierlich mit domänenspezifischem Wissen zu kalibrieren, damit die Empfehlungen relevant und korrekt bleiben.

Governance‑ und Compliance‑Aspekte sind von Anfang an zu regeln; Datenschutz, Nachvollziehbarkeit und Verantwortlichkeit müssen integraler Teil der Architektur und der Prozesse sein, sonst entstehen durch den KI‑Einsatz neue Risiken statt Entlastung. KI kann die Security‑Arbeit beschleunigen und entlasten, ersetzt jedoch nicht die Erfahrung von Sicherheitsfachleuten. Der eigentliche Mehrwert entsteht erst durch das konsequente Zusammenspiel von Menschen, Prozessen und Modellen, nur so wird Security by AI belastbar.

Verabschiedung von der „Better Code: GenAI“

Die „Better Code: GenAI“ am 29. Januar zeigte, dass KI das reine Assistenzstadium überwunden hat und inzwischen handfeste Produktivitätsgewinne bei Routineaufgaben, Testgenerierung und Codeanalyse liefert.

Modelle erzeugen Hypothesen und Vorschläge, keine abnahmefähigen Lösungen; deshalb bleiben menschliche Steuerung, Validierung und klare Ownership unverzichtbar, um Qualität und Verlässlichkeit sicherzustellen.

Der technische Vorteil entsteht weniger durch schiere Modellgröße als durch konsequente Kontextintegration: semantische Repositorien, Code‑Knowledge‑Graphs, Retrieval‑Schichten und Observability machen Agenten zielgerichtet, effizient und nachvollziehbar.

Praktisch bedeutet das: Pilotprojekte in risikoarmen Bereichen, konsequenter Ausbau von Test‑ und Monitoring‑Infrastruktur sowie verbindliche Approval‑ und Audit‑Prozesse schaffen die Voraussetzungen für sichere und skalierbare Nutzung.

Sicherheitsfragen lassen sich mit KI besser skalieren, ersetzen aber keine Sicherheitsfachleute; Datenschutz, Nachvollziehbarkeit und Compliance müssen von Anfang an in Modell‑ und Prozessdesign verankert sein.

Die Rolle von Entwickelnden verändert sich: Statt primär Code zu schreiben, werden sie zunehmend Supervisoren, Architektinnen und Policy‑Wächter, die Ergebnisqualität, Integrität und strategische Entscheidungen verantworten.

Wer Vibe‑Coding und Agentic AI wirksam nutzen will, muss die Technologien aktiv lernen, orchestrieren und in robuste Pipelines einbetten; nur so lässt sich das technische Potenzial in nachhaltige Produktivitätsgewinne überführen, ohne dass Risiken oder technische Schulden unkontrolliert wachsen.

Leave a Reply

Negocios faciles y rentables archives negocios digitales rentables.