Skills
Um Behörden-KlarText zu betreiben, zu warten und weiterzuentwickeln, sind je nach Komponente unterschiedliche technologische Fähigkeiten notwendig. Die Anwendung ist modular aufgebaut, wobei jedes Git-Repository einen spezifischen Tech-Stack verwendet.
Anforderungen nach Repositories
Sie wollen einen detaillierten Einblick in den Code?
Sie finden eine Übersicht sowie Links zu den einzelnen Repositories unter Repositories.
1. Web Add-In (MS-Word Integration)
Dient der Integration in Office Web Add-ins.
- Sprachen & Frameworks: HTML, CSS, JavaScript.
- Infrastruktur: Nginx Webserver, Docker Container.
2. VSTO Add-In (MS-Word Desktop)
Dient der Integration in klassische Office Desktop-Umgebungen (lokale Installation).
- Sprachen & Frameworks: C#, .NET Framework, VSTO (Visual Studio Tools for Office).
- Deployment: Visual Studio Setup Projects (
.vdproj).
3. Backend (KI-Logik)
Verarbeitet Anfragen und steuert die Business-Logik.
- Sprachen & Frameworks: Python, FastAPI.
- Infrastruktur: Docker Container.
4. Frontend (Prototyp)
Das Frontend wurde als Prototyp entwickelt, um schnell und unkompliziert Feedback zur Qualität der generierten Texte von Nutzenden einzuholen.
- Sprachen & Frameworks: HTML, CSS, JavaScript, Vue.js.
- Infrastruktur: Nginx Webserver, Docker Container.
5. LLM Evaluation
Dient der Qualitätssicherung von Prompts und Modellen.
- Sprachen & Frameworks: Python.
- Infrastruktur: Docker Container.
Relevante Skills für Deployment und Betrieb
Für den operativen Betrieb der Anwendung (ohne aktive Code-Entwicklung) verschiebt sich der Fokus von Programmiersprachen hin zu DevOps-Kompetenzen. Da die Deployment-Konfigurationen und der LLM-Service nicht Bestandteil der veröffentlichten Repositories sind, müssen diese eigenverantwortlich bereitgestellt werden. Essentiell sind hierbei:
- Container-Orchestrierung: Fundiertes Wissen über eine Plattform zur Orchestrierung von Containern, um die Anwendungskomponenten verfügbar zu machen (z.B. Kubernetes, OpenShift, Docker Compose oder ähnliche Technologien).
- LLM-Service Anbindung: Es muss ein externer oder selbst gehosteter LLM-Service angebunden werden. Dieser muss eine OpenAI-API-konforme Schnittstelle bieten. Kenntnisse in der Bereitstellung solcher Modelle (z.B. via vLLM, Ollama) oder der Anbindung von Cloud-Diensten (z.B. Azure OpenAI, stackit) sind notwendig.
- Container-Runtime: Verständnis von Docker zur Verwaltung der Images (Pull, Push, Build) für Backend, Web Add-In und die Evaluation.
- Netzwerk & Server: Kenntnisse in der Konfiguration von Nginx (im Web Add-In Container) sowie allgemeine Shell/Bash-Kenntnisse zur Wartung der Linux-basierten Container-Umgebungen.