Zum Inhalt

Skills

Um Behörden-KlarText zu betreiben, zu warten und weiterzuentwickeln, sind je nach Komponente unterschiedliche technologische Fähigkeiten notwendig. Die Anwendung ist modular aufgebaut, wobei jedes Git-Repository einen spezifischen Tech-Stack verwendet.

Anforderungen nach Repositories

Sie wollen einen detaillierten Einblick in den Code?

Sie finden eine Übersicht sowie Links zu den einzelnen Repositories unter Repositories.

1. Web Add-In (MS-Word Integration)

Dient der Integration in Office Web Add-ins.

  • Sprachen & Frameworks: HTML, CSS, JavaScript.
  • Infrastruktur: Nginx Webserver, Docker Container.

2. VSTO Add-In (MS-Word Desktop)

Dient der Integration in klassische Office Desktop-Umgebungen (lokale Installation).

  • Sprachen & Frameworks: C#, .NET Framework, VSTO (Visual Studio Tools for Office).
  • Deployment: Visual Studio Setup Projects (.vdproj).

3. Backend (KI-Logik)

Verarbeitet Anfragen und steuert die Business-Logik.

  • Sprachen & Frameworks: Python, FastAPI.
  • Infrastruktur: Docker Container.

4. Frontend (Prototyp)

Das Frontend wurde als Prototyp entwickelt, um schnell und unkompliziert Feedback zur Qualität der generierten Texte von Nutzenden einzuholen.

  • Sprachen & Frameworks: HTML, CSS, JavaScript, Vue.js.
  • Infrastruktur: Nginx Webserver, Docker Container.

5. LLM Evaluation

Dient der Qualitätssicherung von Prompts und Modellen.

  • Sprachen & Frameworks: Python.
  • Infrastruktur: Docker Container.

Relevante Skills für Deployment und Betrieb

Für den operativen Betrieb der Anwendung (ohne aktive Code-Entwicklung) verschiebt sich der Fokus von Programmiersprachen hin zu DevOps-Kompetenzen. Da die Deployment-Konfigurationen und der LLM-Service nicht Bestandteil der veröffentlichten Repositories sind, müssen diese eigenverantwortlich bereitgestellt werden. Essentiell sind hierbei:

  1. Container-Orchestrierung: Fundiertes Wissen über eine Plattform zur Orchestrierung von Containern, um die Anwendungskomponenten verfügbar zu machen (z.B. Kubernetes, OpenShift, Docker Compose oder ähnliche Technologien).
  2. LLM-Service Anbindung: Es muss ein externer oder selbst gehosteter LLM-Service angebunden werden. Dieser muss eine OpenAI-API-konforme Schnittstelle bieten. Kenntnisse in der Bereitstellung solcher Modelle (z.B. via vLLM, Ollama) oder der Anbindung von Cloud-Diensten (z.B. Azure OpenAI, stackit) sind notwendig.
  3. Container-Runtime: Verständnis von Docker zur Verwaltung der Images (Pull, Push, Build) für Backend, Web Add-In und die Evaluation.
  4. Netzwerk & Server: Kenntnisse in der Konfiguration von Nginx (im Web Add-In Container) sowie allgemeine Shell/Bash-Kenntnisse zur Wartung der Linux-basierten Container-Umgebungen.