KI-Glossar
Dieses KI-Glossar bietet Ihnen eine verständliche Erklärung vieler wichtiger Begriffe in der Welt der künstlichen Intelligenz.
Deep Learning
Deep Learning ist eine spezielle Form des maschinellen Lernens, die auf künstlichen neuronalen Netzen basiert und komplexe Mustererkennung ermöglicht.
ELIZA
Das Computerprogramm ELIZA wurde in den 1960er Jahren von dem Wissenschaftler Joseph Weizenbaum am MIT entwickelt wurde. Dieses Programm wurde besonders dafür bekannt, dass es eine Art von Konversation mit Benutzern führen konnte, ähnlich wie ein Mensch es tun würde. Es war eines der ersten Beispiele dafür, wie Computer natürliche Sprache «verstehen» und darauf reagieren können, auch wenn ihr «Verständnis» sehr oberflächlich war.
ELIZA wurde so programmiert, dass sie wie ein Psychotherapeut handeln konnte, insbesondere in der Rolle eines Therapeuten, der die klientenzentrierte oder Therapiemethode nach Carl Rogers anwendet. Diese Methode baut auf Empathie auf und legt Wert darauf, dem Klienten zuzuhören und seine Aussagen auf eine Weise zu reflektieren, die ihm hilft, sich selbst besser zu verstehen. ELIZA tat dies durch das Aufgreifen von Schlüsselwörtern in den Aussagen des Klienten, stellte Fragen oder machte Aussagen, die dazu anregten, mehr zu sprechen.
Der Name «ELIZA» hat eine interessante Hintergrundgeschichte. Es gibt Spekulationen, dass Joseph Weizenbaum das Programm nach Eliza Doolittle benannt haben könnte, einer Figur aus George Bernard Shaws Theaterstück «Pygmalion» (und dem späteren Musical und Film «My Fair Lady»). In der Geschichte wird Eliza Doolittle, eine Blumenverkäuferin mit starker Londoner Mundart, von Professor Henry Higgins, einem Phonetikexperten, unterrichtet, um wie eine Dame der gehobenen Gesellschaft zu sprechen. Die Parallele könnte in der Transformation liegen: So wie Eliza Doolittle lernt, sich anders auszudrücken, «lernt» das ELIZA-Programm, mit Menschen durch die Imitation eines therapeutischen Gesprächs zu «kommunizieren». Die Wahl eines weiblichen Namens für das Programm, trotz der Simulation eines Psychotherapeuten, spiegelt möglicherweise keine tiefere Bedeutung in Bezug auf das Geschlecht des simulierten Therapeuten wider. Es könnte mehr mit der kulturellen Referenz oder einfach mit Weizenbaums persönlicher Entscheidung zu tun haben. Der Name ELIZA selbst suggeriert keine spezifische Geschlechterrolle für das Programm; vielmehr ist es die Funktionalität des Programms, die im Vordergrund steht – die Fähigkeit, eine Art von menschlicher Konversation nachzuahmen.
Expertensysteme
Expertensysteme sind eine Kategorie von Künstlicher Intelligenz (KI), die darauf abzielt, das Wissen und die Entscheidungsfindungsfähigkeiten von menschlichen Experten in einem spezifischen Fachgebiet nachzubilden. Sie gehören zu den ersten und traditionellen Formen der KI und wurden insbesondere in den 1970er und 1980er Jahren stark erforscht und entwickelt. Expertensysteme versuchen, das spezialisierte Wissen und die analytischen Fähigkeiten von Experten in einem bestimmten Bereich zu erfassen und dieses Wissen zur Lösung von Problemen innerhalb dieses Bereichs zu nutzen.
Die Kernkomponenten eines Expertensystems umfassen die Wissensbasis, Inferenzmaschine und Benutzerschnittstelle.
Wissensbasis: Dies ist eine umfangreiche Sammlung von spezifischem Wissen über ein Fachgebiet, das in der Regel in Form von Fakten, Regeln, Heuristiken und Beziehungen zwischen Konzepten dargestellt wird. Die Wissensbasis repräsentiert das verstandene und formalisierte Wissen menschlicher Experten.
Inferenzmaschine (oder Inferenzmotor): Die Inferenzmaschine ist der Mechanismus, der das in der Wissensbasis gespeicherte Wissen nutzt, um Schlussfolgerungen zu ziehen und Probleme zu lösen. Sie wendet logische Regeln an, um neue Fakten oder Schlussfolgerungen aus dem vorhandenen Wissen abzuleiten.
Benutzerschnittstelle: Über die Benutzerschnittstelle (User Interface, UI) interagieren Nutzer mit dem Expertensystem, indem sie Anfragen stellen und Probleme beschreiben. Die Schnittstelle ermöglicht es dem System, Fragen zu stellen, um zusätzliche Informationen vom Benutzer zu erhalten, die für die Problemlösung nötig sein könnten.
Expertensysteme werden in verschiedenen Bereichen eingesetzt, einschliesslich Medizin, Geologie, Ingenieurwesen, Finanzen und Recht, um Entscheidungsunterstützung zu bieten, Diagnosen zu stellen, Probleme zu lösen und Planungsaufgaben durchzuführen. Obwohl sie in bestimmten Anwendungsbereichen erfolgreich sind, haben Expertensysteme auch Einschränkungen. Sie sind stark von der Qualität und Vollständigkeit der Wissensbasis abhängig und können Schwierigkeiten haben, sich an neue oder unvorhergesehene Situationen anzupassen, die außerhalb ihres programmierten Wissens liegen. Mit dem Aufkommen fortschrittlicherer KI-Techniken, insbesondere im Bereich des maschinellen Lernens und der tiefen neuronalen Netze, haben sich die Forschung und die Anwendungsbereiche der KI erweitert, was zu flexibleren und leistungsfähigeren Systemen geführt hat. Trotzdem bleiben Expertensysteme ein wichtiges Beispiel für die Anwendung von KI-Techniken zur Nachbildung menschlicher Expertise.
GPT (Generative Pre-trained Transformer)
GPT ist die Abkürzung für Generative Pre-trained Transformer und bezeichnet ein Sprachmodell, das von OpenAI entwickelt wurde. GPT gehört zur Familie der sogenannten „Large Language Models“ (LLMs), die mithilfe von Maschinellem Lernen auf riesigen Mengen von Textdaten trainiert werden.
GPT kann natürliche Sprache verstehen und selbst Texte erzeugen, die für Menschen oft kaum von menschlich geschriebenen Texten zu unterscheiden sind. Es kann Fragen beantworten, Texte zusammenfassen, Ideen entwickeln, Gespräche führen oder Code generieren.
Das Modell basiert auf der Transformer-Architektur und nutzt Milliarden von Parametern, die während der Trainingsphase auf Muster in Sprache optimiert wurden. Durch diese „Vortrainierung“ kann GPT Sprache in Kontexten verarbeiten und generieren, die sehr flexibel auf die jeweilige Eingabe reagieren.
Typische Einsatzbereiche: Chatbots und virtuelle Assistenten, Content-Generierung (z. B. Texte, Zusammenfassungen, Vorschläge), Unterstützung in der Programmierung, Kreatives Schreiben oder Ideenfindung.
Generative KI
Generative KI ist ein Teilgebiet der künstlichen Intelligenz, das mithilfe neuronaler Netze Muster und Strukturen aus grossen Datenmengen lernt und darauf basierend komplett neue Inhalte erzeugt, etwa Texte, Bilder, Musik oder Code. Anders als klassische KI, die nur erkennt oder klassifiziert, „denkt“ generative KI kreativ und erzeugt eigenständige Werke aus einer Eingabe („Prompt“). Sie wandelt also Wissen in neue, originelle Inhalte – von Chatbots über Bilder bis hin zu Musik.
KI-Methoden
Künstliche Intelligenz (KI) umfasst verschiedene Methoden, die es Computersystemen ermöglichen, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern. Zu den KI-Methoden gehören maschinelles Lernen, bei dem Algorithmen verwendet werden, um aus Daten zu lernen und Vorhersagen zu treffen. Deep Learning ist eine spezielle Form des maschinellen Lernens, die auf künstlichen neuronalen Netzen basiert und komplexe Mustererkennung ermöglicht. Expertensysteme sind eine weitere KI-Methode, bei der das Wissen von Experten in Form von Regeln oder Fakten in einem System codiert wird. Natural Language Processing (NLP) ermöglicht es Computern, menschliche Sprache zu verstehen und zu verarbeiten. Reinforcement Learning ist eine Methode, bei der ein Agent durch Interaktion mit seiner Umgebung lernt, welche Aktionen belohnt werden. Diese verschiedenen KI-Methoden werden je nach Anwendungsfall eingesetzt und tragen dazu bei, intelligente Systeme zu entwickeln, die komplexe Probleme lösen können.
Maschinelles Lernen (Machine Learning)
Maschinelles Lernen ist ein Teilgebiet der Künstlichen Intelligenz, bei dem Computer aus Beispieldaten „lernen“, statt Regeln explizit vorzugeben. Dafür werden grosse Mengen an Daten in ein Modell eingespeist, im sogenannten Training, und das Modell passt sich so an, dass es neue, unbekannte Daten verlässlich verarbeitet.
Wie funktioniert es?
Lernalgorithmen erkennen Muster in den Trainingsdaten und bauen daraus ein mathematisches Modell. Anschliessend können sie auf neue Daten angewendet werden, um z. B. Vorhersagen, Klassifikationen oder Empfehlungen zu generieren.
Es werden Lernformen unterschieden:
- Überwachtes Lernen: mit gelabelten Daten (Eingabe + richtige Ausgabe)
- Unüberwachtes Lernen: ohne Labels, um Strukturen oder Cluster zu finden
- Bestärkendes Lernen (Reinforcement Learning): ein Agent lernt durch Rückmeldungen aus Aktionen
Maschinelles Lernen bildet das Herz vieler KI‑Methoden – auch in Coaching‑ und Beratungsanwendungen, etwa zur Mustererkennung in Kundendaten oder zur Entwicklung personalisierter Empfehlungen.
Natural Language Processing (NLP)
Natural Language Processing (NLP) ermöglicht es Computern, menschliche Sprache zu verstehen und zu verarbeiten.
Nichtschädigung
Das Prinzip der Nichtschädigung, auch bekannt als das Prinzip des «Nicht-Schadens», ist ein zentrales ethisches Gebot in vielen Disziplinen, darunter die Medizinethik, die Ethik der Künstlichen Intelligenz (KI), und allgemein in der philosophischen Ethik. Es besagt, dass Handlungen vermieden werden sollen, die anderen Personen Schaden zufügen könnten. Dieses Prinzip ist eng verbunden mit dem hippokratischen Grundsatz «Primum non nocere», was aus dem Lateinischen übersetzt «Zuerst nicht schaden» bedeutet.
In der Anwendung auf künstliche Intelligenz und Technologie fordert das Prinzip der Nichtschädigung, dass bei der Entwicklung, Implementierung und Nutzung von Technologien sorgfältig darauf geachtet wird, keine negativen Auswirkungen auf Individuen oder die Gesellschaft als Ganzes zu haben. Dies umfasst den Schutz der Privatsphäre, die Sicherheit personenbezogener Daten, die Vermeidung von Diskriminierung und die Gewährleistung, dass Technologien nicht zu sozialer Isolation oder Ausbeutung beitragen. Im Kontext des Coachings mittels KI würde das Prinzip der Nichtschädigung beispielsweise bedeuten, dass die eingesetzten Systeme keine negativen psychologischen Auswirkungen auf die Klienten haben dürfen, ihre Autonomie respektieren müssen und in einer Weise eingesetzt werden, die die Vertraulichkeit und das Wohlbefinden der Klienten fördert.
Prompt Chaining
Für eine Beschreibung dieser Prompting Technik klicken Sie hier.
Prompt Crafting
Diese Technik bezieht sich auf das sorgfältige Formulieren oder Anpassen von Prompts, um spezifische, relevante und genaue Antworten von der KI zu erhalten. Beim Prompt Crafting berücksichtigt man die Nuancen der Sprache, die das Modell verwendet, einschliesslich der Auswahl der Wörter, des Tons und des Kontextes, um präzisere Ergebnisse zu erziele
Prompt Engineering
Prompt Engineering ist ein Überbegriff, der die Arbeit und das Experimentieren mit Prompts (Anweisungen oder Eingabeaufforderungen), die an KI-Modelle wie ChatGPT gegeben werden, umfasst. Es bezieht sich auf die Kunst und Wissenschaft, Prompts so zu formulieren, dass sie die gewünschten Antworten von der KI hervorrufen. Innerhalb des Prompt Engineerings gibt es verschiedene Techniken, z. B. Prompt Chaining und Prompt Crafting.
Reinforcement Learning
Reinforcement Learning ist eine Methode, bei der ein Agent durch Interaktion mit seiner Umgebung lernt, welche Aktionen belohnt werden.