AI
312 Inhalte
Entdecken Sie unser Archiv zu tiefgehenden Inhalte zum Thema AI.
Im ersten Teil [1] dieses umfassenden Tutorials über die Entwicklung eines LLM-Chatbots (Large Language Model) wurden die Grundlagen gelegt. Der zweite Teil stellt die Tool-Calling-Funktionalität in Java vor.
Bevor wir Tool-Calling implementieren, müssen wir verstehen, wie es konzeptionell funktioniert. Tool-Calling ist keine eingebaute Fähigkeit der meisten LLMs. Stattdessen ist es ein Muster, da..
BI
AI
KI und Dashboards im Zusammenspiel: Warum KI das klassische Dashboarding nicht ersetzt, sondern erweitert
Durch die technologischen Fortschritte der letzten Jahre eignen sich KI-Modelle zunehmend besser für die Datenanalyse. Dennoch erfordert die verlässliche Verarbeitung von Datenquellen durch KI-Systeme weiterhin einen signifikanten Vorbereitungsaufwand. Hinzu kommt, dass die Qualität der Antworten in vielen Fällen noch nicht ausreicht, um in Business-Anwendungen tatsächlich praktikabel zu sein. Gan..
Zwischen KI-Euphorie, veränderten Geschäftsmodellen und Fragen in Bezug auf die digitale Souveränität erfährt die Analytics-Branche derzeit starke strukturelle Veränderungen. Persönliche Eindrücke aus dem TDWI-Themenzirkel der Analytics-Verantwortlichen und dem BARC Consulting Summit, aber auch vielen Kontakten zum Jahresanfang zeigen: Wachstum ist kein Selbstläufer mehr, Beratung verändert sich g..
AI
Software-Architektur
Die 70/30-Falle: wie Prompt-Disziplin und Enterprise Architecture KI-Projekte retten
KI liefert schnell auf den ersten Blick überzeugende Ergebnisse – doch Entscheidungsreife bleibt oft aus. Das ist gefährlich, weil Glätte fehlende Belege, Annahmen und systemische Datenlücken kaschiert. Der Beitrag zeigt, warum KI-Erfolg an zwei Hebeln hängt: Prompt-Disziplin des Einzelnen und Enterprise Architecture als semantischem Fundament. Basierend auf realen Projekt- und Bankbeispielen wird..
Kaum ist der letzte KI-Hypezyklus verdaut und schon schiebt die KI-Branche die nächste Erzählung nach: „Agentic AI“ und – inzwischen gerne auch in Kombination – „Vibe Coding“. Während Ersteres im Kern bedeutet, dass Large Language Models nun eigenständig irgendwo Funktionen aufrufen dürfen (Security? Später!), klingt Letzteres fast schon sympathisch: Man beschreibt ein Problem in einem Prompt – un..