Glossar
Glossar zu Begriffen, die auf dieser Website verwendet werden und ein bisschen mehr…
Deep Learning
Deep Learning ist eine spezielle Form des maschinellen Lernens, die auf künstlichen neuronalen Netzen basiert und komplexe Mustererkennung ermöglicht.
ELIZA
Das Computerprogramm ELIZA wurde in den 1960er Jahren von dem Wissenschaftler Joseph Weizenbaum am MIT entwickelt wurde. Dieses Programm wurde besonders dafür bekannt, dass es eine Art von Konversation mit Benutzern führen konnte, ähnlich wie ein Mensch es tun würde. Es war eines der ersten Beispiele dafür, wie Computer natürliche Sprache «verstehen» und darauf reagieren können, auch wenn ihr «Verständnis» sehr oberflächlich war.
ELIZA wurde so programmiert, dass sie wie ein Psychotherapeut handeln konnte, insbesondere in der Rolle eines Therapeuten, der die klientenzentrierte oder Therapiemethode nach Carl Rogers anwendet. Diese Methode baut auf Empathie auf und legt Wert darauf, dem Klienten zuzuhören und seine Aussagen auf eine Weise zu reflektieren, die ihm hilft, sich selbst besser zu verstehen. ELIZA tat dies durch das Aufgreifen von Schlüsselwörtern in den Aussagen des Klienten, stellte Fragen oder machte Aussagen, die dazu anregten, mehr zu sprechen.
Der Name «ELIZA» hat eine interessante Hintergrundgeschichte. Es gibt Spekulationen, dass Joseph Weizenbaum das Programm nach Eliza Doolittle benannt haben könnte, einer Figur aus George Bernard Shaws Theaterstück «Pygmalion» (und dem späteren Musical und Film «My Fair Lady»). In der Geschichte wird Eliza Doolittle, eine Blumenverkäuferin mit starker Londoner Mundart, von Professor Henry Higgins, einem Phonetikexperten, unterrichtet, um wie eine Dame der gehobenen Gesellschaft zu sprechen. Die Parallele könnte in der Transformation liegen: So wie Eliza Doolittle lernt, sich anders auszudrücken, «lernt» das ELIZA-Programm, mit Menschen durch die Imitation eines therapeutischen Gesprächs zu «kommunizieren». Die Wahl eines weiblichen Namens für das Programm, trotz der Simulation eines Psychotherapeuten, spiegelt möglicherweise keine tiefere Bedeutung in Bezug auf das Geschlecht des simulierten Therapeuten wider. Es könnte mehr mit der kulturellen Referenz oder einfach mit Weizenbaums persönlicher Entscheidung zu tun haben. Der Name ELIZA selbst suggeriert keine spezifische Geschlechterrolle für das Programm; vielmehr ist es die Funktionalität des Programms, die im Vordergrund steht – die Fähigkeit, eine Art von menschlicher Konversation nachzuahmen.
Expertensysteme
Expertensysteme sind eine Kategorie von Künstlicher Intelligenz (KI), die darauf abzielt, das Wissen und die Entscheidungsfindungsfähigkeiten von menschlichen Experten in einem spezifischen Fachgebiet nachzubilden. Sie gehören zu den ersten und traditionellen Formen der KI und wurden insbesondere in den 1970er und 1980er Jahren stark erforscht und entwickelt. Expertensysteme versuchen, das spezialisierte Wissen und die analytischen Fähigkeiten von Experten in einem bestimmten Bereich zu erfassen und dieses Wissen zur Lösung von Problemen innerhalb dieses Bereichs zu nutzen.
Die Kernkomponenten eines Expertensystems umfassen die Wissensbasis, Inferenzmaschine und Benutzerschnittstelle.
Wissensbasis: Dies ist eine umfangreiche Sammlung von spezifischem Wissen über ein Fachgebiet, das in der Regel in Form von Fakten, Regeln, Heuristiken und Beziehungen zwischen Konzepten dargestellt wird. Die Wissensbasis repräsentiert das verstandene und formalisierte Wissen menschlicher Experten.
Inferenzmaschine (oder Inferenzmotor): Die Inferenzmaschine ist der Mechanismus, der das in der Wissensbasis gespeicherte Wissen nutzt, um Schlussfolgerungen zu ziehen und Probleme zu lösen. Sie wendet logische Regeln an, um neue Fakten oder Schlussfolgerungen aus dem vorhandenen Wissen abzuleiten.
Benutzerschnittstelle: Über die Benutzerschnittstelle (User Interface, UI) interagieren Nutzer mit dem Expertensystem, indem sie Anfragen stellen und Probleme beschreiben. Die Schnittstelle ermöglicht es dem System, Fragen zu stellen, um zusätzliche Informationen vom Benutzer zu erhalten, die für die Problemlösung nötig sein könnten.
Expertensysteme werden in verschiedenen Bereichen eingesetzt, einschließlich Medizin, Geologie, Ingenieurwesen, Finanzen und Recht, um Entscheidungsunterstützung zu bieten, Diagnosen zu stellen, Probleme zu lösen und Planungsaufgaben durchzuführen. Obwohl sie in bestimmten Anwendungsbereichen erfolgreich sind, haben Expertensysteme auch Einschränkungen. Sie sind stark von der Qualität und Vollständigkeit der Wissensbasis abhängig und können Schwierigkeiten haben, sich an neue oder unvorhergesehene Situationen anzupassen, die außerhalb ihres programmierten Wissens liegen. Mit dem Aufkommen fortschrittlicherer KI-Techniken, insbesondere im Bereich des maschinellen Lernens und der tiefen neuronalen Netze, haben sich die Forschung und die Anwendungsbereiche der KI erweitert, was zu flexibleren und leistungsfähigeren Systemen geführt hat. Trotzdem bleiben Expertensysteme ein wichtiges Beispiel für die Anwendung von KI-Techniken zur Nachbildung menschlicher Expertise.
GPT
GPT = Generative Pre-trained Transformer
KI-Methoden
Künstliche Intelligenz (KI) umfasst verschiedene Methoden, die es Computersystemen ermöglichen, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern. Zu den KI-Methoden gehören maschinelles Lernen, bei dem Algorithmen verwendet werden, um aus Daten zu lernen und Vorhersagen zu treffen. Deep Learning ist eine spezielle Form des maschinellen Lernens, die auf künstlichen neuronalen Netzen basiert und komplexe Mustererkennung ermöglicht. Expertensysteme sind eine weitere KI-Methode, bei der das Wissen von Experten in Form von Regeln oder Fakten in einem System codiert wird. Natural Language Processing (NLP) ermöglicht es Computern, menschliche Sprache zu verstehen und zu verarbeiten. Reinforcement Learning ist eine Methode, bei der ein Agent durch Interaktion mit seiner Umgebung lernt, welche Aktionen belohnt werden. Diese verschiedenen KI-Methoden werden je nach Anwendungsfall eingesetzt und tragen dazu bei, intelligente Systeme zu entwickeln, die komplexe Probleme lösen können.
Maschinelles Lernen
Natural Language Processing (NLP)
Natural Language Processing (NLP) ermöglicht es Computern, menschliche Sprache zu verstehen und zu verarbeiten.
Nichtschädigung
Das Prinzip der Nichtschädigung, auch bekannt als das Prinzip des «Nicht-Schadens», ist ein zentrales ethisches Gebot in vielen Disziplinen, darunter die Medizinethik, die Ethik der Künstlichen Intelligenz (KI), und allgemein in der philosophischen Ethik. Es besagt, dass Handlungen vermieden werden sollen, die anderen Personen Schaden zufügen könnten. Dieses Prinzip ist eng verbunden mit dem hippokratischen Grundsatz «Primum non nocere», was aus dem Lateinischen übersetzt «Zuerst nicht schaden» bedeutet.
In der Anwendung auf künstliche Intelligenz und Technologie fordert das Prinzip der Nichtschädigung, dass bei der Entwicklung, Implementierung und Nutzung von Technologien sorgfältig darauf geachtet wird, keine negativen Auswirkungen auf Individuen oder die Gesellschaft als Ganzes zu haben. Dies umfasst den Schutz der Privatsphäre, die Sicherheit personenbezogener Daten, die Vermeidung von Diskriminierung und die Gewährleistung, dass Technologien nicht zu sozialer Isolation oder Ausbeutung beitragen. Im Kontext des Coachings mittels KI würde das Prinzip der Nichtschädigung beispielsweise bedeuten, dass die eingesetzten Systeme keine negativen psychologischen Auswirkungen auf die Klienten haben dürfen, ihre Autonomie respektieren müssen und in einer Weise eingesetzt werden, die die Vertraulichkeit und das Wohlbefinden der Klienten fördert.
Prompt Chaining
Für eine Beschreibung dieser Prompting Technik klicken Sie hier.
Prompt Crafting
Diese Technik bezieht sich auf das sorgfältige Formulieren oder Anpassen von Prompts, um spezifische, relevante und genaue Antworten von der KI zu erhalten. Beim Prompt Crafting berücksichtigt man die Nuancen der Sprache, die das Modell verwendet, einschliesslich der Auswahl der Wörter, des Tons und des Kontextes, um präzisere Ergebnisse zu erziele
Prompt Engineering
Prompt Engineering ist ein Überbegriff, der die Arbeit und das Experimentieren mit Prompts (Anweisungen oder Eingabeaufforderungen), die an KI-Modelle wie ChatGPT gegeben werden, umfasst. Es bezieht sich auf die Kunst und Wissenschaft, Prompts so zu formulieren, dass sie die gewünschten Antworten von der KI hervorrufen. Innerhalb des Prompt Engineerings gibt es verschiedene Techniken, z. B. Prompt Chaining und Prompt Crafting.
Reinforcement Learning
Reinforcement Learning ist eine Methode, bei der ein Agent durch Interaktion mit seiner Umgebung lernt, welche Aktionen belohnt werden.