Startseite – 

Künstliche Intelligenz 4 – erstmal Vokabeln lernen. Ein Glossar

Künstliche Intelligenz 4 – erstmal Vokabeln lernen. Ein Glossar

Da Sie unsere Beitragsreihe über Künstliche Intelligenz bis hierher verfolgt haben, gehen wir davon aus, daß Sie das Thema KI wirklich interessiert, und daß Sie sich vorstellen können, in Zukunft KI-Anwendungen wie ChatGPT nutzen zu wollen, sollen, müssen, dürfen und können. Dabei können Ihnen Begriffe begegnen, deren Bedeutung Sie kennen sollten oder die Sie hier nachlesen können. Wir wollten dazu ein Glossar erstellen. Genau genommen, wollten wie es natürlich erstellen lassen. Von keinem Geringeren als ChatGPT. Los geht’s. Vom Chatbot erstellte Texte sind wie immer kursiv gestellt.

Frage: Erstelle ein Glossar mit Begriffen, die vorkommen, wenn man KI-Anwendungen wie ChatGPT nutzt. Die einzelnen Begriffe sollen für Menschen erklärt werden, die erst anfangen KI-Anwendungen zu nutzen, die sich aber mit Computern und dem Internet auskennen. Die Erklärungen zu den einzelnen Begriffen sollen nicht mehr als 100 Wörter umfassen und alphabetisch sortiert sein. Bitte erkläre in deutsch Wörter wie Prompt, Hyperparameter oder Bot etc. Bitte maximal 30 bis 40 Schlagworte.

ChatGPT: Hier ist ein Glossar grundlegender Begriffe, die häufig in Zusammenhang mit KI-Anwendungen wie ChatGPT auftreten, zugeschnitten auf Nutzer, die erste Erfahrungen mit KI sammeln:

  1. Anomalieerkennung: Der Prozess des Identifizierens von ungewöhnlichen Mustern oder Datenpunkten, die von der Norm abweichen, was auf mögliche Probleme oder interessante Abweichungen hinweisen kann.
  2. API (Application Programming Interface): Eine Schnittstelle, die es verschiedenen Softwareanwendungen ermöglicht, miteinander zu interagieren und Funktionen oder Daten auszutauschen.
  3. Automatisierung: Die Verwendung von Technologie, um Aufgaben zu erledigen, die sonst menschliche Eingriffe erfordern würden, oft unter Einsatz von KI.
  4. Autonome Systeme: Systeme, die ohne menschliche Eingriffe arbeiten können, wie z.B. selbstfahrende Autos.
  5. Bias (Verzerrung): Systematische und unfaire Verzerrungen in Daten oder KI-Modellen, die zu fehlerhaften oder diskriminierenden Ergebnissen führen können.
  6. Bot: Kurzform für Roboter. In der KI bezieht sich dies oft auf Programme, die automatisierte Aufgaben ausführen, insbesondere im Kontext von Kommunikation, wie das Beantworten von Fragen.
  7. Chatbots: Programme, die Text- oder Sprachinteraktionen mit Menschen führen können, oft verwendet in Kundendienstsystemen.
  8. Cloud Computing: Die Bereitstellung von Computerdiensten (einschließlich KI-Fähigkeiten) über das Internet, die Benutzern erlaubt, auf leistungsfähige Rechenressourcen zuzugreifen, ohne sie direkt besitzen oder verwalten zu müssen.
  9. Clusteranalyse: Eine Technik im maschinellen Lernen, um Datenpunkte in Gruppen zu organisieren, sodass Punkte in der gleichen Gruppe mehr Ähnlichkeiten haben als Punkte in verschiedenen Gruppen.
  10. Computer Vision: Ein Feld der KI, das sich darauf konzentriert, Computern das Sehen und Interpretieren visueller Informationen zu ermöglichen.
  11. Datensatz: Eine Sammlung von Daten, die für die Ausbildung von KI-Modellen verwendet wird. Diese können Text, Bilder, Videos oder andere Formate umfassen.
  12. Deep Learning: Eine spezielle Methode des maschinellen Lernens, die tief gestapelte neuronale Netze nutzt, um komplexe Muster in großen Datenmengen zu erkennen und zu interpretieren.
  13. Dialogsystem: Ein Computerprogramm, das mit Benutzern über natürliche Sprache kommuniziert, häufig in Form von Unterhaltungen oder Dialogen.
  14. Edge Computing: Eine Methode, bei der Datenverarbeitung näher an den Ort gebracht wird, wo die Daten entstehen (z.B. auf einem mobilen Gerät statt in einem entfernten Rechenzentrum), um Antwortzeiten zu verbessern und Bandbreite zu sparen.
  15. Ensemble Learning: Der Ansatz, mehrere Modelle oder Algorithmen zu kombinieren, um bessere Vorhersagen zu erzielen, als es mit einzelnen Modellen möglich wäre.
  16. Entscheidungsbaum: Ein Modellierungsansatz, bei dem Daten durch eine Serie von Entscheidungen aufgeteilt werden, ähnlich den Verzweigungen eines Baumes, um Vorhersagen oder Klassifizierungen zu treffen.
  17. Ethik in der KI: Überlegungen und Richtlinien, die sicherstellen sollen, dass KI-Technologien verantwortungsbewusst und fair eingesetzt werden.
  18. Explainable AI (XAI): Ein Ansatz in der KI, der darauf abzielt, die Entscheidungsfindung von KI-Systemen nachvollziehbar und transparent zu machen.
  19. Feinabstimmung (Fine-Tuning): Ein Prozess, bei dem ein vortrainiertes Modell weiter auf spezifische Aufgaben oder Datensätze angepasst wird, um die Leistung zu verbessern.
  20. Generatives Modell: Ein KI-Modell, das darauf ausgelegt ist, Inhalte zu erzeugen, wie Text, Bilder oder Musik, basierend auf dem, was es während des Trainings gelernt hat.
  21. Hyperparameter: Variablen, die die Struktur eines KI-Modells (wie die Anzahl der Schichten in einem neuronalen Netz) und den Lernprozess (wie die Lernrate) steuern, die vor dem Training eingestellt werden müssen.
  22. Interpretierbarkeit: Die Fähigkeit zu verstehen und zu erklären, wie ein KI-Modell Entscheidungen trifft oder Daten verarbeitet.
  23. KI (Künstliche Intelligenz): Ein Bereich der Informatik, der sich damit beschäftigt, Maschinen Aufgaben ausführen zu lassen, die normalerweise menschliche Intelligenz erfordern, wie das Verstehen von Sprache oder das Erkennen von Mustern.
  24. Künstliche Neuronale Netze (KNN): Modellstrukturen in der KI, die von der Funktionsweise des menschlichen Gehirns inspiriert sind und die Grundlage vieler moderner KI-Systeme bilden.
  25. LLM (Large Language Model): Große Sprachmodelle sind fortschrittliche KI-Systeme, die darauf trainiert sind, menschliche Sprache zu verstehen und zu generieren. Sie werden durch die Analyse großer Mengen an Textdaten trainiert und können eine Vielzahl von Aufgaben erfüllen, darunter das Beantworten von Fragen, Übersetzen zwischen Sprachen, Zusammenfassen von Texten und vieles mehr. Ein bekanntes Beispiel für ein großes Sprachmodell ist OpenAI’s GPT (Generative Pre-trained Transformer).
  26. Maschinelles Lernen: Ein Teilbereich der KI, der Algorithmen verwendet, um aus Daten zu lernen und Entscheidungen oder Vorhersagen ohne explizite Programmierung zu treffen.
  27. Modell: In der KI bezieht sich dies auf die spezifische Struktur, die aus einem Algorithmus und trainierten Daten besteht, um bestimmte Aufgaben zu erfüllen.
  28. Natural Language Generation (NLG, Natürliche Sprachgenerierung): Der Prozess, bei dem Computer automatisch Text generieren, der natürlich und verständlich für Menschen ist.
  29. Natural Language Understanding (NLU): Der Bereich der KI, der sich damit beschäftigt, menschliche Sprache nicht nur zu verarbeiten, sondern auch ihren Sinn und Zweck zu verstehen.
  30. Neuronales Netzwerk: Ein computergestütztes Modell, inspiriert vom menschlichen Gehirn, das aus miteinander verbundenen Einheiten (Neuronen) besteht und Daten verarbeitet, um Muster zu erkennen und Entscheidungen zu treffen.
  31. NLP (Natural Language Processing, Natürliche Sprachverarbeitung): Ein Bereich der KI, der sich damit beschäftigt, wie Computer menschliche Sprache verstehen und generieren können.
  32. Prompt: Ein Eingabetext, den ein Nutzer an ein KI-System sendet. Der Prompt dient als Auslöser oder Frage, auf die die KI antwortet oder basierend darauf eine Aufgabe ausführt.
  33. Reinforcement Learning (Verstärkungslernen): Ein Bereich des maschinellen Lernens, bei dem Modelle durch Belohnungen für ihre Aktionen lernen, optimale Strategien oder Verhaltensweisen zu entwickeln.
  34. Semantic Web (Semantisches Web): Eine Erweiterung des aktuellen Webs, in der Informationen in einer Weise strukturiert werden, die es Computern ermöglicht, den Inhalt der Daten besser zu verstehen und darauf zu reagieren.
  35. Speech Recognition: Die Technologie, die es Computern ermöglicht, gesprochene Worte in Text umzuwandeln.
  36. Token: In der KI und speziell in der Verarbeitung von Sprache bezieht sich ein Token oft auf die kleinste Einheit des Textes, die während des Trainings eines Modells verarbeitet wird. Ein Token kann ein Wort, ein Teil eines Wortes oder sogar ein einzelnes Zeichen sein, abhängig vom Tokenisierungsprozess, der verwendet wird. Tokenisierung ist ein wichtiger Schritt, um Text in eine Form zu bringen, die von KI-Modellen effektiv genutzt werden kann.
  37. Tokenisierung: Der Prozess, bei dem Text in kleinere Einheiten, wie Wörter oder Sätze, zerlegt wird, um die Verarbeitung zu vereinfachen.
  38. Transferlernen: Der Prozess, bei dem ein Modell, das auf einer Aufgabe trainiert wurde, angepasst wird, um eine andere, aber verwandte Aufgabe zu lösen. Dies ist besonders effizient, um Zeit und Ressourcen beim Training von KI-Modellen zu sparen.
  39. Überwachtes Lernen: Ein Ansatz im maschinellen Lernen, bei dem das Modell anhand von Beispieldaten und bekannten Antworten darauf trainiert wird.
  40. X-Shot-Prompting: Dieser Begriff bezieht sich auf eine Methode, bei der ein Sprachmodell Beispiele (sogenannte „Shots“) bekommt, um zu lernen, wie es auf eine neue Aufgabe oder Anfrage reagieren soll. „X“ steht für die Anzahl der Beispiele. Einzel-Shot (one-shot) oder wenige Shots (few-shot) sind gängige Formate. Dies ermöglicht es dem Modell, ohne umfangreiche Neu- oder Weiterbildung auf neue Situationen zu reagieren, indem es Muster aus wenigen Beispielen generalisiert und auf neue Probleme anwendet.

Diese Begriffe können helfen, ein breiteres Verständnis für verschiedene Aspekte und Techniken der Künstlichen Intelligenz und deren Anwendung zu entwickeln.

___________

Dieses Glossar kann auch außerhalb der Beitragsreihe von Interesse sein, als Nachschlagewerk, bzw. Wörterbuch. Deshalb haben wir dem Glossar einen eigenen Beitrag gewidmet.

Lesen Sie im nächsten Beitrag – Künstliche Intelligenz 5 – wie Sie Ihre Fragen und Aufgabenstellungen an den Chatbot optimieren können.

Hier können Sie das Glossar herunterladen.