Professionelle Weiterbildung für die Digitale Transformation

Wenn KI lügt: Warum Maschinen manchmal Halluzinationen haben

In diesem Webinar erfährst Du, warum KI-Modelle manchmal „halluzinieren“ und Dir falsche Informationen liefern. Außerdem bekommst Du praxisnahe Beispiele, einfache Erklärungen zu den Ursachen und Einblicke in mögliche Lösungen, um KI-Systeme zukünftig verlässlicher zu machen.

Bild zu Wenn KI lügt: Warum Maschinen manchmal Halluzinationen haben

Beschreibung

In diesem Webinar werfen wir einen Blick auf ein faszinierendes und oft unterschätztes Phänomen der künstlichen Intelligenz: Halluzinationen. Wir erklären, warum KI-Modelle manchmal falsche oder erfundene Informationen liefern und welche Risiken dabei entstehen. Dabei gehen wir sowohl auf technische Ursachen als auch auf die praktischen Auswirkungen auf Nutzer und Unternehmen ein. Wir betrachten, wie Entwickler diese Probleme angehen und welche Lösungen bereits in der Entwicklung sind, um die Zuverlässigkeit von KI-Systemen zu verbessern.

Lernziele

  • Verstehen, was KI-Halluzinationen sind und warum sie auftreten.

  • Praktischen Auswirkungen von Halluzinationen in KI-Anwendungen wie Suchmaschinen und Sprachassistenten erkennen.

  • Lösungsansätze zur Vermeidung von Halluzinationen um die Zuverlässigkeit von KI-Systemen zu verbessern.

Seminar Details

  • Ort: Online (Teilnahme-Link wird nach der Anmeldung bereitgestellt)

  • Dauer: 45 Minuten

  • max. Teilnehmerzahl: 100 Personen

  • Preis: kostenlos

  • Zielgruppe: KI-Interessierte, Entscheidungsträger und Fachleute ohne technischen Hintergrund sowie interessierte Laien

  • Vorkenntnisse: keine, außer einem grundlegenden Interesse an KI

Seminarinhalt

  1. Halluzinationen bei KI

    Halluzinationen bei KI beziehen sich auf falsche oder erfundene Informationen, die von KI-Systemen generiert werden. Anhand praxisnaher Beispiele wird gezeigt, wie solche Fehler in Suchmaschinen, Sprachassistenten und anderen Anwendungen auftreten und wie man KI gezielt “lügen” lassen kann.

  2. Technische Ursachen, warum KI manchmal daneben liegt

    Es wird erklärt, wie Halluzinationen entstehen, besonders durch unzureichende oder verzerrte Trainingsdaten. Der Unterschied zwischen menschlicher und maschineller Wahrnehmung wird beleuchtet, um zu verstehen, warum KI in bestimmten Situationen falsche Schlussfolgerungen zieht.

  3. Lösungsansätze gegen Halluzinationen

    Strategien zur Verbesserung der KI-Qualität werden vorgestellt, mit einem besonderen Fokus auf präzises Prompting. Es wird aufgezeigt, wie Entwickler und Nutzer die Zuverlässigkeit von KI-Systemen durch diese Methoden erhöhen können.

Referent

Bild von Philipp Lehmann

Philipp Lehmann

Mehr über den Referenten

Philipp Lehmann ist ein erfahrener IT-Consultant und KI-Experte mit umfangreicher Praxis in der Arbeit mit lokalen LLM und Open-Source-Lösungen. Sein Fokus liegt auf Datenschutz, Privatsphäre und der Integration von KI zur Prozessoptimierung.

Anmeldung/Anfrage

Sichere Dir jetzt einen der limitierten Plätze.

Weiterführende Informationen

  • Du erhältst Wissen über aktuelle und zukünftige KI-Trends.

  • Erlerne Strategien und Hintergründe, die Du direkt in deinem Unternehmen anwenden kannst.