Die aktuell 100 wichtigsten KI-Begriffe einfach erklärt

Grundlagen und Definitionen

1. Algorithmus: Eine Reihe von Anweisungen, die einem Computer sagen, wie er ein bestimmtes Problem lösen oder eine Aufgabe ausführen soll.

2. Artificial Intelligence (AI): Künstliche Intelligenz (KI), die Fähigkeit von Maschinen, menschliche kognitive Funktionen zu simulieren.

3. Machine Learning (ML): Maschinelles Lernen (ML), ein Teilbereich der KI, der es Computern ermöglicht, aus Daten zu lernen, ohne explizit programmiert zu werden.

4. Deep Learning: Tiefes Lernen, ein Teilbereich des maschinellen Lernens, der neuronale Netze mit mehreren Schichten verwendet.

5. Weak AI (Narrow AI): Schwache KI (schmale KI), KI, die nur für eine einzige, spezifische Aufgabe entwickelt wurde.

6. Starke KI: Eine alternative Bezeichnung für AGI (Allgemeine Künstliche Intelligenz).

7. Artificial General Intelligence (AGI): Allgemeine Künstliche Intelligenz (AGI), eine hypothetische, hoch entwickelte KI, die jede intellektuelle Aufgabe eines Menschen ausführen kann.

8. Augmented Intelligence: Eine Form der KI, die Menschen nicht ersetzt, sondern unterstützt und ihre Fähigkeiten erweitert.

9. Hybrid AI: Eine Kombination verschiedener KI-Methoden wie symbolische KI und maschinelles Lernen.

10. Symbolische KI: Eine ältere Form der KI, die auf Regeln und logischen Schlussfolgerungen basiert.

11. Cognitive Computing: Kognitives Computing, ein Teilbereich der KI, der menschliches Denken nachahmt.

12. Turing-Test: Ein Test zur Beurteilung, ob die Antworten einer Maschine von denen eines Menschen nicht zu unterscheiden sind.

13. Vektoren: Mathematische Darstellungen von Daten, die von KI-Modellen verarbeitet werden.

14. Token: Eine kleine Einheit von Text, die von KI-Sprachmodellen verarbeitet wird.

15. Embeddings: Vektordarstellungen von Daten wie Wörtern oder Bildern, die es KI-Modellen ermöglichen, Beziehungen zu verstehen.

16. Emergent Behavior: Emergentes Verhalten, unbeabsichtigte Fähigkeiten, die ein KI-Modell während des Trainings entwickelt.

17. FOOM: Ein Akronym für "Fast Onset of Overly-aggressive Machine Intelligence", ein theoretisches Konzept für eine sehr schnelle Entwicklung zu einer Superintelligenz.

18. Alignment: Der Prozess, ein KI-Modell so auszurichten, dass es menschlichen Werten und Absichten entspricht.

19. Klassifikation: Einordnung von Daten in vordefinierte Kategorien.

20. Regression: Eine Methode des maschinellen Lernens zur Vorhersage eines kontinuierlichen Wertes, wie z.B. Preis oder Temperatur.

21. Discriminative AI: Eine Art von KI, die Daten klassifiziert oder zwischen ihnen unterscheidet.

22. Generative AI: KI, die in der Lage ist, neue und originelle Inhalte zu erstellen.

23. Anthropomorphismus: Die menschliche Tendenz, nicht-menschlichen Objekten wie KI menschliche Eigenschaften oder Emotionen zuzuschreiben.

24. Inferenz: Der Prozess, bei dem ein trainiertes KI-Modell verwendet wird, um Vorhersagen oder neue Inhalte zu generieren.

Modelle und Architekturen

25. Modell: Eine mathematische Darstellung der Realität, die von einem maschinellen Lernalgorithmus gelernt wurde.

26. Neuronales Netz: Ein KI-Modell, das der Funktionsweise des menschlichen Gehirns nachempfunden ist.

27. Convoluted Neural Network (CNN): Eine spezielle Art von neuronalem Netz, die hauptsächlich für die Bilderkennung verwendet wird.

28. Recurrent Neural Network (RNN): Eine Art von neuronalem Netz, die für die Verarbeitung von Sequenzdaten wie Text oder Zeitreihen verwendet wird.

29. Autoencoder: Eine Art von neuronalem Netz, das zur Datenkompression und Merkmalsextraktion verwendet wird.

30. Transformer-Modell: Eine neuronale Netzwerkarchitektur, die in vielen modernen Sprachmodellen verwendet wird und den Kontext von Wörtern besser versteht.

31. Large Language Model (LLM): Grosses Sprachmodell (LLM), ein KI-Modell, das auf riesigen Textdatenmengen trainiert wurde, um Sprache zu verstehen und zu generieren.

32. Generative Pre-trained Transformer (GPT): Eine spezifische Architektur von grossen Sprachmodellen, die von OpenAI entwickelt wurde.

33. Schweizer Open-Source-LLM: Ein mehrsprachiges und öffentlich entwickeltes Sprachmodell der EPFL und ETH Zürich, das über 1000 Sprachen abdeckt und Innovation fördern soll.

34. Diffusion-Modell: Eine Art von generativem KI-Modell, das Bilder oder andere Daten durch die schrittweise Entfernung von Rauschen erzeugt.

35. Generative Adversarial Networks (GANs): Generative Adversarial Networks (GANs), ein generatives Modell mit zwei neuronalen Netzen, die gegeneinander arbeiten, um neue Daten zu erstellen.

36. Black-Box-Modell: Ein KI-Modell, dessen innere Funktionsweise und Entscheidungsprozesse für Menschen schwer nachzuvollziehen sind.

37. Attention-Mechanismus: Ein Mechanismus in neuronalen Netzen, der es dem Modell ermöglicht, sich auf die wichtigsten Teile der Eingabe zu konzentrieren.

38. Multimodale KI: Eine KI, die in der Lage ist, verschiedene Arten von Daten wie Text, Bilder und Sprache gleichzeitig zu verarbeiten.

39. Google Gemini: Ein multimodales KI-Modell von Google.

40. ChatGPT: Ein KI-basierter Chatbot von OpenAI, der auf einem grossen Sprachmodell basiert.

Techniken und Methoden

41. Supervised Learning: Überwachtes Lernen, eine Methode des maschinellen Lernens, bei der das Modell mit beschrifteten Daten trainiert wird.

42. Unsupervised Learning: Unüberwachtes Lernen, eine Methode des maschinellen Lernens, bei der das Modell Muster in unbeschrifteten Daten findet.

43. Reinforcement Learning: Bestärkendes Lernen, eine Art des maschinellen Lernens, bei der ein Agent lernt, indem er Belohnungen für gute Aktionen und Strafen für schlechte erhält.

44. Self-Supervised Learning: Eine Methode, bei der ein Modell lernt, aus seinen eigenen Daten zu lernen, ohne explizit beschriftete Beispiele zu benöötigen.

45. Active Learning: Eine Art des maschinellen Lernens, bei der der Algorithmus selbstständig die Datenpunkte auswählt, aus denen er lernen soll.

46. Transfer Learning: Die Wiederverwendung eines vortrainierten Modells für eine neue, ähnliche Aufgabe, anstatt von Grund auf neu zu beginnen.

47. Few-Shot Learning: Ein Ansatz, bei dem ein Modell mit nur wenigen Beispielen trainiert wird, um eine neue Aufgabe zu bewältigen.

48. Zero-Shot Learning: Eine Fähigkeit von KI-Modellen, eine Aufgabe zu lösen, für die sie nicht explizit trainiert wurden, indem sie sich auf ihr vorhandenes Wissen stützen.

49. Backpropagation: Ein Schlüsselalgorithmus im Deep Learning, der verwendet wird, um die Fehler eines neuronalen Netzes zu reduzieren, indem die Gewichte angepasst werden.

50. Convolution: Eine mathematische Operation in neuronalen Netzen, die Muster in Eingabedaten wie Bildern erkennt.

51. Chaining: Der Prozess, bei dem mehrere KI-Modelle oder -Tools nacheinander verwendet werden, um eine komplexe Aufgabe zu lösen.

52. RAG (Retrieval-Augmented Generation): Eine Technik, die ein LLM mit einer externen Wissensdatenbank verbindet, um genauere und aktuellere Antworten zu generieren.

53. Overfitting: Ein Problem, bei dem ein Modell zu gut auf die Trainingsdaten trainiert ist und bei neuen, unbekannten Daten schlecht abschneidet.

54. Dropout: Eine Regularisierungstechnik in neuronalen Netzen, die hilft, Overfitting zu vermeiden.

55. Logistische Regression: Ein statistischer Algorithmus für Klassifikationsaufgaben, der die Wahrscheinlichkeit eines Ergebnisses schätzt.

56. Clustering: Ein unüberwachtes Lernverfahren, bei dem Datenpunkte in Gruppen (Cluster) mit ähnlichen Merkmalen eingeteilt werden.

57. A/B-Testing: Ein Experiment, bei dem zwei Versionen (A und B) eines Modells oder einer Benutzeroberfläche verglichen werden, um zu sehen, welche besser funktioniert.

58. Human-in-the-Loop (HITL): Ein Ansatz, bei dem menschliche Experten in den Entscheidungsprozess eines KI-Systems eingebunden sind.

59. Cross-Validation: Cross-Validation (Kreuzvalidierung) ist eine Technik, die die Leistung eines KI-Modells bewertet. Dabei werden die Trainingsdaten in mehrere Teile aufgeteilt, um sicherzustellen, dass das Modell nicht nur auf den Daten, mit denen es trainiert wurde, gut funktioniert, sondern auch auf neuen, ihm unbekannten Daten. Das hilft, Overfitting zu vermeiden und die Generalisierungsfähigkeit des Modells zu prüfen.

60. RAG (Retrieval-Augmented Generation): Eine Technik, die ein LLM mit einer externen Wissensdatenbank verbindet, um genauere und aktuellere Antworten zu generieren.

Daten und Training

61. Datensatz: Eine Sammlung von digitalen Informationen, die zum Trainieren, Testen und Validieren von KI-Modellen verwendet wird.

62. Trainingsdaten: Die Daten, die verwendet werden, um ein KI-Modell zu trainieren.

63. Labeled Data: Beschriftete Daten, Trainingsdaten, die bereits mit Tags oder Erklärungen versehen sind, um dem Modell beim Lernen zu helfen.

64. Synthetische Daten: Künstlich erzeugte Daten, die KI-Modelle trainieren, um die Abhängigkeit von realen, sensiblen Daten zu verringern.

65. Data Augmentation: Daten-Augmentierung, die Technik, bestehende Trainingsdaten zu erweitern oder zu verändern, um die Leistung des KI-Modells zu verbessern.

66. Data Mining: Daten-Mining, der Prozess, grosse Datenmengen zu analysieren, um Muster und Trends zu finden.

67. Feature Engineering: Der Prozess der Auswahl und Umwandlung von Rohdaten in nützliche Merkmale für ein KI-Modell.

68. Pretraining: Das initiale Training eines KI-Modells auf einem grossen, allgemeinen Datensatz, bevor es für eine spezifische Aufgabe feinabgestimmt wird.

69. Parameter: Die internen Variablen eines Modells, die während des Trainings gelernt werden.

70. Hyperparameter: Einstellungen, die vor dem Training eines KI-Modells konfiguriert werden, wie die Lernrate.

71. Alps-Supercomputer: Eine Hochleistungs-Rechenanlage in der Schweiz, die speziell für das Training von grossen und komplexen KI-Modellen genutzt wird.

72. Federated Learning: Eine Methode des maschinellen Lernens, bei der Modelle dezentral auf lokalen Geräten trainiert werden, ohne dass die Daten zentralisiert werden.

Anwendung und Interaktion

73. Prompt: Eine Eingabeaufforderung oder Frage, die an ein KI-Modell gesendet wird.

74. Prompt Engineering: Die Kunst und Wissenschaft, Prompts zu entwerfen, um die gewünschten Antworten von einer KI zu erhalten.

75. Chatbot: Ein Computerprogramm, das menschliche Konversation über Text- oder Audioeingaben simuliert.

76. Natural Language Processing (NLP): Verarbeitung natürlicher Sprache (NLP), ein Teilgebiet, das sich auf die Interaktion zwischen Computern und menschlicher Sprache konzentriert.

77. Natural Language Generation (NLG): Generierung natürlicher Sprache (NLG), ein Teilgebiet, das sich auf die Erzeugung von menschenähnlichem Text aus strukturierten Daten konzentriert.

78. Natural Language Understanding (NLU): Verständnis natürlicher Sprache (NLU), ein Teilbereich des NLP, der darauf abzielt, die Bedeutung von Text zu verstehen.

79. Computer Vision: Computer Vision, ein Bereich der KI, der es Computern ermöglicht, visuelle Informationen zu verarbeiten und zu interpretieren.

80. Sentiment-Analyse: Ein Teilbereich des NLP, der die Stimmung (positiv, negativ, neutral) in einem Text analysiert.

81. Anomalieerkennung: Eine Methode, um seltene oder unerwartete Muster in Daten zu finden, wie z.B. Betrug oder Systemfehler.

82. Personalisierung: Der Einsatz von KI, um Inhalte, Produkte oder Dienstleistungen auf individuelle Nutzer zuzuschneiden.

83. Predictive Analytics: Vorhersage-Analytik, die Verwendung von statistischen Algorithmen und KI, um zukünftige Ergebnisse vorherzusagen.

84. Text-zu-Bild-Generierung: Der Prozess der Erstellung von Bildern aus Textbeschreibungen.

85. Robotik: Ein Ingenieurzweig, der sich mit dem Entwurf, der Konstruktion und dem Einsatz von Robotern beschäftigt.

86. Vorausschauende Wartung: Der Einsatz von KI zur Vorhersage von Geräteausfällen, bevor sie auftreten.

87. Virtuelle Realität (VR): Die Verwendung von Computern, um eine immersive, dreidimensionale Umgebung zu schaffen.

88. Semantic Search: Eine Suchmethode, die die Bedeutung und den Kontext einer Anfrage versteht, um relevantere Ergebnisse zu liefern.

89. Edge Computing: Datenverarbeitung an der Quelle der Datenerfassung, um die Latenz zu reduzieren.

90. Latenz: Die Zeitverzögerung zwischen einer Anfrage an eine KI und der Ausgabe einer Antwort.

91. Autonomous Agents: Autonome Agenten, KI-Systeme, die ohne ständige menschliche Aufsicht handeln können, um ein Ziel zu erreichen.

Ethische Aspekte

92. Ethical AI: Ethische KI, ein Feld, das sich mit den ethischen Aspekten der KI-Entwicklung befasst, wie Fairness und Transparenz.

93. Bias: Voreingenommenheit, systematische Fehler in den Trainingsdaten, die zu falschen oder unfairen Ergebnissen der KI führen können.

94. Explainable AI (XAI): Erklärbare KI, die darauf abzielt, die Entscheidungen von KI-Modellen nachvollziehbar und transparent zu machen.

95. Guardrails: Schutzplanken, Regeln und Einschränkungen, die KI-Modellen auferlegt werden, um unerwünschte oder schädliche Ausgaben zu verhindern.

96. Halluzinationen: Falsche oder erfundene Antworten, die von einer KI mit hoher Überzeugung ausgegeben werden.

97. KI-Kompetenz: Das Verständnis und die Fähigkeit, KI-Technologien effektiv zu nutzen und zu bewerten.

98. Datenschutz: Der Schutz persönlicher Daten bei der Nutzung von KI.

99. Transparenz: Die Nachvollziehbarkeit von KI-Entscheidungen.

100. Verantwortung: Die Frage nach der Haftung für die Handlungen eines KI-Systems.