• AI

Datum

12. Sep 2025

Was nach einem halben Jahr KI-Strategie passiert ist...

Seit Anfang Jahr beschäftigen wir uns proaktiv und koordiniert mit dem Thema KI. Oder kurz…wir haben einen Pod gegründet, eine einfache KI-Strategie definiert und eine Roadmap gezeichnet, mit welchen Themen wir uns auseinandersetzen möchten. Ziel(e): Mitarbeitende von avega auf den selben Wissensstand bringen und parallel dazu mögliche Use Cases für den technologischen Einsatz und Entwicklung von KI-Tools testen – für internen Einsatz oder auch bei Kund:innen. Im Blog beschreibe ich, was daraus geworden ist (und wir dabei gelernt haben).

Ursprüngliche KI-Roadmap

Je konkreter, desto arbeitsintensiver – KI-Strategie ist easy, but

Eine Strategie und Roadmap war relativ schnell skizziert und definiert. Wir hatten ja im 2024 schon Erfahrungen mit KI gesammelt, einfach noch relativ wenig koordiniert. Der Einstieg war für ein Unternehmen unserer Grösse einigermassen trivial:

  1. Alle inhaltlich auf denselben Stand bringen (sagen wir KI-Knowhow Basics+)

  2. KI-Services und APIs in Softwarelösungen anbinden

  3. Identifizieren, was der Bedarf unserer Kund:innen ist und was wir konkret anbieten möchten

Über die Priorisierung wie auch über die Relevanz von AI waren wir uns ziemlich einig. Heisst auch, alle von avega haben Zugang und alle sollen sich das nötige Wissen aneignen. Wie das aber genau aussehen sollte, haben wir intensiv diskutiert. Was bisher alles passiert ist:

KI-Wissen nützlich und praxisnah als Lernpfad

Wir haben uns zum Aufbau von KI-Knowhow entschieden, selbst einen Lernpfad aufzubauen. Klingt zuerst etwas fraglich, weil es schon unzählige Materialien gibt. Genau das hat uns bewogen, selbst etwas zu erarbeiten. Die verschiedenen Module haben alle dieselbe Struktur und basieren zu einem Grossteil aus bestehenden Formaten (Youtube-Videos, Blogs, Informationsseiten, Übungen). Gleichzeitig kann die Person, die das Modul zusammenstellt sich vertieft mit dem Thema auseinandersetzen. Die KI-Pod Mitglieder halten sich also selbst fit & wir stellen sicher, dass die Inhalte qualitativ gut und so aktuell wie möglich sind.

Folgende Module haben wir definiert. 7 davon stehen momentan allen aveganer:innen zur Verfügung und im September gibt es ein Kahoot, um das Gelernte zu prüfen.

  • Basis-Modul 01: AI Big Picture - Why, How, What?

  • Basis-Modul 02: Modelle und Tools

  • Basis-Modul 03: Generative AI

  • Basis-Modul 04: Prompting

  • Basis-Modul 05: Agentenbasierte AI

  • Basis-Modul 06: Machine Learning & Business Analytics

  • Basis-Modul 07: AI-Ethics & Bias

  • Basis-Modul 08: Datenkompetenz

  • Basis-Modul 09: Datenschutz, Security & Compliance

Use Cases KI: Was genau ist denn jetzt gefragt?

RAG hier RAG da, Code Agents super, Code Agents weniger super. KI rettet die Welt, KI wird so schnell wieder als Trend verschwinden wie Metaverse und Blockchain. Die Meinungen gehen auseinander…was wir dazu finden:

Lohnt sich ein unternehmenseigenes RAG?

Retrieval Augmented Generation (RAG) sind Tools, die abfragebasierte (Datenanalyse) mit generativen KI-Modellen kombinieren. Mittlerweile gibt es zahlreiche Möglichkeiten generative KI mit unternehmenseigenem Wissen und Dokumenten zu füttern. Daraus entsteht eine wirklich krass intelligente Suche. Wir haben da schon mit Onyx (vorher Danswer) ein ersten Versuch gestartet, den aber in den Pausenraum geschickt. Wir hatten (noch) Herausforderungen mit der Qualität der Resultate und mussten in den Spiegel schauen – wir haben auch im avega Universum mittlerweile einiges an veraltetem Wissen.

Code Agents – Top oder Flop

Damit hat sich Bruno vertieft in einem Blog auseinandergesetzt: GenAI Software Entwicklung: Warum das (noch) ordentlich Schwächen hat. Damit ihr eine Kurzfassung erhaltet, einmal meine Zusammenfassung (ohne ChatGPT!)

Noé's Rezension

Wirklich lesenswert und flüssig geschrieben. Bruno nimmt die ganze Code Agent Bubble mit gesundem Zynismus und realistischer Einschätzung auseinander. Ähnlich wie bei GenAI gilt grundsätzlich: Je klarer die Aufgabe abgrenzbar, desto grösser potenziell die Unterstützung durch KI. Bestehende Patterns, kleine Aufgaben, bestehenden Code ergänzen oder korrigieren; das können Code Agents gut. Je komplizierter die ganze Geschichte, desto weniger lohnt sich der Einsatz. Sauberer Code bedingt halt doch noch “suberi Büetz” – mit oder ohne KI.

KI-Einsatz bei Software-Tools

Was wir bisher beobachten, ist ein Missmatch zwischen dem Angebot und den Bedürfnissen unserer Kund:innen. Der Einsatz von KI scheitert regelmässig an der fehlenden Due Diligence rund um Datenschutz, Datenhosting (Swiss First, wenn Cloud dann Swiss Cloud), Transparenz der Modelle und kleinen Faktoren, die mit Saas-Tools und Cloud-Angeboten nicht immer vereinbar oder konfigurierbar sind. Wird das kommen? Absolut! Aber es braucht vielleicht noch etwas Geduld und bitz Maturität. Schliesslich hat sich der Ruf der amerikanischen Softwareindustrie parallel zur avega KI-Strategie verschlechtert. Wir haben nichts damit zu tun, ehrlich.

KI-Kodex und Tooling

KI Kodex
Nach vielen Diskussionen nun wirklich fertig und kommuniziert: Unser KI Kodex. Damit setzen wir Leitplanken für den verantwortungsvollen Einsatz von Künstlicher Intelligenz. Er dient als Orientierungshilfe für unsere Mitarbeitenden und definiert die Rahmenbedingungen für verschiedene Nutzungen von KI. Wir haben dabei festgestellt, dass viele Themen noch nicht so klar umrahmt sind. Deshalb haben wir uns entschieden an einigen Orten mit Empfehlungen zu arbeiten (soll ich z.B. offenlegen, wenn ich in meiner Arbeit ChatGPT nutze?)

Tooling

Wer hätte das gedacht, die Konkurrenz schläft nicht. Merkt auch ChatGPT. Je nach Bedürfnis sind nun unterschiedliche GenAI-Tools das neue GO TO. Was nutzen wir jetzt bei avega? Haben alle das gleiche Tool? Wir arbeiten momentan mit einer einfachen Heuristik, jede aktive Nutzer:in darf einfach einen Premium-Zugang haben (im AI-Pod auch als Fritsch's Law bekannt 😂).

Unser Fazit als KI-Pod

Wissensaufbau ist absolute Grundlage und geht über die Basics hinaus. Je mehr wir die Perplexitys und Midjourneys brauchen, desto wichtiger wird es, dass wir begreifen, was das Ding genau macht. Und weil die Tools schneller weiterentwickelt werden, als Formel 1 Bolliden über die Ziellinie brettern, lohnt es sich wirklich, da genügend und regelmässig Zeit zu investieren.

Jedes kleine Experiment und jeder Prototyp lohnt sich für uns auch, wenn wir scheitern. Die Learnings, die wir machen, nehmen wir mit. Je mehr wir mit KI experimentieren, desto mehr wissen wir auch, in welchem Rahmen der Einsatz sinnvoll und nützlich sein kann. Es folgen wahrscheinlich weitere Blogs von Bruno. Entwickler:innen haben eben einen Qualitäts-Ehrenkodex.

Es braucht flexible Rahmenbedingungen. Einen simplen Kodex mit Do's and Dont’s. Klare Ansagen, welche Tools im Rahmen des internen Toolings zur Verfügung gestellt werden. Etwas Budget, damit wir uns die Premium-Version gönnen dürfen (schon rein wegen dem Datenschutz absolut sinnvoll, damit die KI nicht mit internen Daten trainiert wird).

Und abschliessend…es lohnt sich (hier gerade wegen der Vielfalt umso mehr) wirklich, mit Nutzenden im Mittelpunkt zu fragen: Welches Problem lösen wir? Was ist das wirkliche Bedürfnis? KI ist super, aber wirklich nicht jede löst ein reelles Problem.

Noé Sterckx

Digitale Transformation & Innovation

Du willst für deine Organisation die KI-Spielregeln definieren?

Melde dich für ein unverbindliches Speedcoaching