uv sync # Bootstrap Repo
docker compose up -d # Infrastruktur starten
./demo --help # RTFM- Android: HTTP-only Setting muss gesetzt sein: https://developer.android.com/guide/topics/manifest/application-element#usesCleartextTraffic
Bisher bietet die App keine Möglichkeit eines LLM als Chatbot. Wäre generell und für die Anwendungsfälle unten z.T. interessant. Reines Integrationsproblem.
- Streaming-Kanal für bidirektionale Kommunikation Client-LLM (hat Signal ähliches Problem? https://time.com/7346534/signal-confer-ai-moxie-marlinspike/ und https://confer.to/)
Automatische Beantwortung von Mails durch LLMs.
Keine Änderung der App, Connector oder Backbone notwendig. Durchstich mit Ollama auf localhost.
Siehe Anwendungsfälle hier, die als Vorlage für einen Coding-Agenten genutzt werden könnten, der Anpassungen durchführen kann.
- Mit konkretem Anwendungsfall testen.
Unikliniken haben Bedarf an Patientendaten zur Auswertung von Forschungsprojekten. Hierfür muss aber eine Freigabe von den Patienten eingeholt werden. Existierende, proprietäre Lösung der Uniklinik HD geben Patienten einen QR-Code mit, mit dem ein Zugang zu einer Anwendunge freigegeben wird, mit dem die Klinik den Patienten zur Freigabe seiner Daten kontaktieren könnte.
Nachteil: proprietäre Lösung muss gesamten Tech- und Securitystack implementieren. Enmeshed bietet hier einen ready-to-use Kommunikationskanal.
Tool Calls
- Beantworten von Fragen zur Freigabe und Datenverarbeitung durch LLM (programmatische Guardrails für Korrektheit wegen Rechtssicherheit)
Student kann per Nachricht
- Dokumente abfragen, z.B. Immatrikulationsbescheide, ToR.
- sich zur Prüfung anmelden mit verpflichtender Bestätigung über Request
Naiver agentischer Anwendungsfall
Ähnlich automatisierter Zustellung von Tickets.
Eingehende Requests, die für den Nutzer unklar sind, könnten durch ein LLM näher erläutert werden. Braucht LLM-Channel.