KI-Glossar
Wichtige Begriffe und Definitionen zur Künstlichen Intelligenz
Algorithmus
Ein Algorithmus ist eine Schritt-für-Schritt-Anleitung zur Lösung eines Problems. In der KI ist ein Algorithmus ein klar definierter Prozess, mit dem ein Computer Daten analysieren, lernen oder Entscheidungen treffen kann.
Algorithmen-Bias
Das bedeutet, dass ein KI-System voreingenommene Ergebnisse liefert, weil die Daten oder die Programmierung fehlerhaft oder unausgewogen sind. Zum Beispiel kann ein Gesichtserkennungsalgorithmus schlechtere Ergebnisse bei bestimmten Hautfarben liefern, wenn er nicht mit vielfältigen Daten trainiert wurde.
Anomalieerkennung
Das ist die Fähigkeit eines Systems, ungewöhnliche oder abweichende Muster in Daten zu erkennen. Zum Beispiel kann ein KI-System ungewöhnliche Kreditkartentransaktionen entdecken, die auf Betrug hinweisen könnten.
Apache Spark
Eine Open-Source-Plattform für die schnelle Verarbeitung großer Datenmengen. Sie wird oft in KI-Projekten verwendet, um Daten effizient zu analysieren oder für das Training von Modellen.
API
Eine API (Programmierschnittstelle) erlaubt es verschiedenen Softwareprogrammen, miteinander zu kommunizieren. In der KI können APIs z. B. dafür genutzt werden, um auf eine Sprach-KI wie ChatGPT zuzugreifen.
ARIMA
Ein statistisches Modell zur Vorhersage von Zeitreihen, also Daten, die über die Zeit gesammelt wurden (z. B. Aktienkurse). ARIMA analysiert Trends und Muster in diesen Daten.
Autoencoder
Eine spezielle Art von neuronalen Netzwerken, die dazu verwendet wird, Daten zu komprimieren und dann wiederherzustellen. Autoencoder lernen wichtige Merkmale von Daten, z. B. um Bilder zu vereinfachen oder Rauschen zu entfernen.
Backpropagation
Eine Methode zum Trainieren von neuronalen Netzwerken. Dabei wird der Fehler, den das Modell gemacht hat, von hinten (Output) nach vorne (Input) zurückgerechnet, um die Gewichte im Netzwerk zu verbessern.
Bagging
Steht für „Bootstrap Aggregating“. Eine Technik im maschinellen Lernen, bei der mehrere Modelle auf zufällig ausgewählten Daten trainiert und die Ergebnisse dann kombiniert werden, um bessere Vorhersagen zu machen.
Batch-Normalisierung
Eine Technik im Training von neuronalen Netzwerken, bei der die Daten in kleinen Gruppen (Batches) normalisiert werden. Das hilft, das Training stabiler und schneller zu machen.
Bayesianisches Netzwerk
Ein Modell, das zeigt, wie verschiedene Ereignisse oder Variablen miteinander zusammenhängen. Es nutzt Wahrscheinlichkeiten, um z. B. zu schätzen, wie wahrscheinlich ein bestimmtes Ergebnis ist, wenn andere Informationen bekannt sind.
Beam Search
Eine Methode, die in der Sprachverarbeitung (z. B. maschinelles Übersetzen) verwendet wird, um effizient mehrere mögliche Antworten zu prüfen, ohne alle Möglichkeiten durchzugehen. So findet man gute, aber nicht unbedingt perfekte Ergebnisse schneller.
Begrenzte Rationalität
Ein Konzept aus der Entscheidungsforschung: Es bedeutet, dass Menschen oder Maschinen oft nur „gut genug“ entscheiden, weil sie nicht alle Informationen haben oder nicht alles berechnen können. In der KI hilft das beim Design realistischer Modelle.
Bias-Variance-Tradeoff
Ein Grundprinzip im maschinellen Lernen: Modelle müssen zwischen zwei Dingen ausbalancieren – Bias (Verzerrung), wenn ein Modell zu einfach ist, und Varianz, wenn es zu stark auf Trainingsdaten reagiert. Ziel ist ein gutes Gleichgewicht für genaue Vorhersagen.
Big Data
Sehr große und komplexe Datenmengen, die mit herkömmlicher Software schwer zu verarbeiten sind. KI nutzt Big Data, um Muster zu erkennen, Modelle zu trainieren und bessere Entscheidungen zu treffen.
Binary Classification
Eine Art von Vorhersage, bei der es nur zwei mögliche Ergebnisse gibt – z. B. „Spam“ oder „Nicht-Spam“, „Krank“ oder „Gesund“. Das ist eine häufige Aufgabe im maschinellen Lernen.
Boltzmann-Maschine
Ein spezielles neuronales Netzwerk, das Wahrscheinlichkeiten lernt und Zusammenhänge zwischen Variablen erkennt. Wird oft für unsupervised learning (also Lernen ohne gelabelte Daten) genutzt, ist aber rechnerisch aufwendig.
Boosting
Eine Technik, bei der viele schwache Modelle (die allein nur mäßig gut sind) nacheinander trainiert und kombiniert werden, um ein starkes Modell zu erzeugen. Dabei lernt jedes neue Modell aus den Fehlern der vorherigen.
Caffe
Eine Open-Source-Software, die besonders gut für das Erstellen und Trainieren von tiefen neuronalen Netzwerken geeignet ist – oft für Bildverarbeitung verwendet. Besonders beliebt bei Forschern und Entwicklern.
Capsule Networks
Eine moderne Weiterentwicklung von Convolutional Neural Networks (CNNs). Sie versucht, nicht nur Muster zu erkennen, sondern auch deren räumliche Beziehungen – z. B. ob ein Gesicht aus zusammenpassenden Augen, Nase und Mund besteht.
Chaos-Theorie
Eine mathematische Theorie, die beschreibt, wie kleine Veränderungen große Auswirkungen haben können – auch in scheinbar geordneten Systemen. In der KI wird sie manchmal verwendet, um komplexe, unvorhersehbare Muster zu analysieren.
Chatbot
Ein Programm, das automatisch mit Menschen kommunizieren kann – meist in Textform, manchmal auch mit Sprache. KI-Chatbots wie ChatGPT lernen, natürliche Sprache zu verstehen und passende Antworten zu geben.
Clustering
Eine Methode im maschinellen Lernen, bei der ähnliche Datenpunkte automatisch in Gruppen (Cluster) eingeteilt werden – z. B. Kundengruppen mit ähnlichem Verhalten. Clustering funktioniert meist ohne vorherige Kategorien.
CNN (Convolutional Neural Network)
Ein spezielles neuronales Netzwerk, das vor allem bei der Bilderkennung eingesetzt wird. CNNs können Formen, Kanten und Muster erkennen und werden z. B. für Gesichtserkennung oder medizinische Bildanalyse genutzt.
Cognitive Computing
Bezeichnet Computersysteme, die menschenähnlich „denken“ sollen – also Sprache verstehen, lernen, schlussfolgern und interagieren. Oft eine Mischung aus KI, maschinellem Lernen und natürlicher Sprachverarbeitung.
Collaborative Filtering
Eine Technik aus Empfehlungssystemen, bei der Vorschläge gemacht werden basierend auf dem Verhalten ähnlicher Nutzer. Zum Beispiel: „Andere, die dieses Buch gekauft haben, mochten auch …“.
Computational Linguistics
Die Wissenschaft vom maschinellen Verarbeiten von Sprache. Sie verbindet Linguistik mit Informatik – z. B. bei Sprachmodellen, Übersetzungsprogrammen oder Chatbots.
Computer Vision
Ein Teilbereich der KI, bei dem Computer lernen, Bilder oder Videos zu „sehen“ und zu verstehen. Typische Anwendungen sind Gesichtserkennung, Objekterkennung oder medizinische Bildanalyse.
Convergence
Bedeutet in der KI, dass ein Lernprozess zu einem stabilen Zustand kommt, in dem sich das Modell nicht mehr stark verändert – also gelernt hat, was es lernen soll. Ohne Konvergenz bleibt das Modell unzuverlässig.
Convolution
Ein mathematischer Vorgang, der in CNNs verwendet wird, um wichtige Merkmale in Bildern zu erkennen. Dabei wird ein kleiner Filter über das Bild „geschoben“, um z. B. Kanten oder Muster zu entdecken.
CUDA
Steht für „Compute Unified Device Architecture“ und ist eine Technologie von NVIDIA. Sie ermöglicht es, GPUs (Grafikkarten) für allgemeine Rechenaufgaben zu nutzen – z. B. zum Beschleunigen von KI-Trainings.
Data Augmentation
Eine Technik, bei der bestehende Trainingsdaten künstlich erweitert werden – z. B. durch Drehen, Spiegeln oder Verzerren von Bildern. Dadurch wird das KI-Modell robuster und lernt besser.
Data Engineering
Der Bereich, der sich mit dem Sammeln, Aufbereiten und Organisieren von Daten beschäftigt. Ohne gute Datenarbeit kann KI nicht effektiv trainiert werden. Data Engineers sorgen dafür, dass alles korrekt und effizient läuft.
Data Lake
Ein großer Speicherort, in dem rohe, unstrukturierte oder teilstrukturierte Daten abgelegt werden. Anders als in einer klassischen Datenbank sind die Daten nicht vorher formatiert, was Flexibilität für KI-Anwendungen bietet.
Data Leakage
Ein Fehler beim Training eines KI-Modells, bei dem versehentlich Informationen aus den Testdaten im Trainingsprozess landen. Das führt zu künstlich guten Ergebnissen – in der Realität ist das Modell dann oft unbrauchbar.
Data Mining
Der Prozess, bei dem aus großen Datenmengen automatisch Muster, Zusammenhänge oder neue Informationen entdeckt werden. KI und maschinelles Lernen spielen hier eine zentrale Rolle.
Data Pipeline
Eine strukturierte Abfolge von Schritten, mit denen Daten gesammelt, verarbeitet, analysiert und schließlich für KI oder Berichte bereitgestellt werden. Eine gute Pipeline sorgt für saubere und nützliche Daten.
Data Preprocessing
Die Vorbereitung von Daten für ein KI-Modell. Dazu gehören z. B. das Entfernen von Fehlern, das Normalisieren von Werten oder das Umwandeln von Text in Zahlen. Saubere Daten = besseres Lernen.
Data Science
Ein interdisziplinäres Feld, das Statistik, Programmierung und Fachwissen kombiniert, um aus Daten Erkenntnisse zu gewinnen. KI ist dabei oft ein Werkzeug unter vielen.
Data Warehouse
Ein zentraler Speicherort für strukturierte Daten aus verschiedenen Quellen. Anders als ein Data Lake sind die Daten hier vorher verarbeitet – ideal für Analysen, Berichte und Geschäftsentscheidungen.
Decision Tree
Ein Entscheidungsbaum ist ein Modell, das Entscheidungen als eine Abfolge von Ja/Nein-Fragen darstellt. Es ist leicht verständlich und zeigt klar, wie eine Entscheidung getroffen wird – z. B. ob ein Kunde kreditwürdig ist.
Deep Learning
Eine spezielle Form des maschinellen Lernens, die auf tiefen (mehrschichtigen) neuronalen Netzwerken basiert. Deep Learning kann komplexe Aufgaben wie Spracherkennung, Bilderkennung oder Übersetzung sehr gut lösen.
Dimensionalitätsreduktion
Eine Technik, um große Datenmengen mit vielen Merkmalen (Dimensionen) zu vereinfachen, ohne zu viel Information zu verlieren. Das hilft, Modelle schneller und verständlicher zu machen.
Discriminative Model
Ein Modell, das lernt, Unterschiede zwischen Klassen zu erkennen – also z. B. zwischen „Katze“ und „Hund“ anhand von Bildmerkmalen. Im Gegensatz dazu sagen generative Modelle, wie die Daten selbst aufgebaut sind.
Dropout
Eine Methode im Deep Learning, bei der zufällig bestimmte Teile des Netzwerks beim Training ausgeschaltet werden. Das hilft, Überanpassung zu vermeiden – das Modell wird dadurch robuster.
Edge AI
KI, die direkt auf Geräten („am Rand“ des Netzwerks) läuft – z. B. auf Smartphones, Kameras oder Sensoren. Dadurch ist die Verarbeitung schneller und es muss nicht alles in die Cloud geschickt werden.
ELBO
Steht für „Evidence Lower Bound“. Ein mathematisches Maß in der bayesianischen Statistik, das bei komplexen Modellen (wie variational inference) hilft, Wahrscheinlichkeiten gut zu schätzen. Nicht ganz trivial, aber wichtig in der Forschung.
Embeddings
Eine Technik, um komplexe Daten – wie Wörter oder Bilder – in eine komprimierte Zahlenform (Vektor) zu übersetzen. So kann ein Modell z. B. verstehen, dass „König“ und „Königin“ ähnlich sind.
Ensemble Learning
Ein Verfahren, bei dem mehrere Modelle zusammenarbeiten, um bessere Ergebnisse zu erzielen als ein einzelnes Modell. Beispiele sind „Bagging“ und „Boosting“. Oft stabiler und genauer.
Entropie
In der KI misst Entropie, wie „unsicher“ oder „unvorhersehbar“ ein System ist. Ein Modell mit hoher Entropie weiß nicht genau, was passieren wird – das hilft z. B. beim Treffen probabilistischer Entscheidungen.
Epistemische Unsicherheit
Diese Unsicherheit entsteht, wenn ein KI-Modell etwas nicht weiß – etwa weil es zu wenige oder unpassende Daten hat. Es ist die „Wissenslücke“ des Modells, nicht die Zufälligkeit der Daten.
Evolutionäre Algorithmen
Von der biologischen Evolution inspirierte Verfahren: Lösungen (wie z. B. Modellparameter) „entwickeln“ sich durch Auswahl, Mutation und Kombination, bis eine gute Lösung gefunden ist.
Explainable AI (XAI)
Ziel ist es, KI-Entscheidungen für Menschen verständlich zu machen. XAI erklärt z. B., warum ein Modell eine bestimmte Diagnose oder Empfehlung abgegeben hat.
Explorative Datenanalyse
Ein erster Schritt in der Datenanalyse: Man schaut sich Daten genau an, sucht Muster, Ausreißer oder Zusammenhänge – oft mit Hilfe von Visualisierungen. Wichtig, um die Daten zu verstehen.
F1-Score
Ein Maß für die Qualität eines Modells – besonders bei ungleichen Klassen wichtig. Es kombiniert Genauigkeit (Precision) und Vollständigkeit (Recall) zu einem einzigen Wert.
Federated Learning
Eine Technik, bei der mehrere Geräte ein gemeinsames KI-Modell trainieren, ohne ihre Daten zu teilen. Gut für Datenschutz – z. B. bei Smartphones oder Krankenhäusern.
Feature Engineering
Der kreative Prozess, aus Rohdaten sinnvolle Eingabewerte (Features) für ein Modell zu machen. Gute Features = bessere Vorhersagen.
Feature Selection
Das gezielte Auswählen der wichtigsten Merkmale (Features) für ein Modell – um Komplexität zu reduzieren, Rechenzeit zu sparen und Überanpassung zu vermeiden.
Feedforward-Netzwerk
Eine einfache Form eines neuronalen Netzwerks, bei dem Daten nur in eine Richtung durch das Netzwerk fließen – ohne Rückkopplung. Die Grundlage vieler Deep-Learning-Modelle.
Few-shot Learning
Eine Lernmethode, bei der ein KI-Modell mit sehr wenigen Beispielen auskommt – z. B. ein neues Objekt erkennen, nachdem es nur 1–5 Beispiele gesehen hat. Besonders nützlich, wenn Daten knapp sind.
Fuzzy Logic
Eine Logik, bei der Dinge nicht nur „wahr“ oder „falsch“ sind, sondern auch etwas dazwischen – z. B. „ein bisschen warm“ statt nur „warm“ oder „kalt“. Das macht Entscheidungen flexibler, wie beim Menschen.
GAN (Generative Adversarial Network)
Ein Netzwerk, das neue Daten erzeugt – z. B. Bilder. Es besteht aus zwei Teilen: einem Generator (der versucht, echte Daten zu „fälschen“) und einem Diskriminator (der prüft, ob die Daten echt sind). Sie lernen im Wettbewerb.
Gaussian Mixture Model
Ein Modell, das annimmt, dass die Daten aus mehreren überlappenden „Glockenkurven“ (Normalverteilungen) bestehen. Es wird oft zum Clustern und zur Wahrscheinlichkeitsabschätzung verwendet.
Gaussian Process
Ein flexibles Modell, das Wahrscheinlichkeitsverteilungen über Funktionen beschreibt – besonders nützlich für Vorhersagen mit Unsicherheiten, z. B. in der Bayes’schen Optimierung.
General AI
Eine „allgemeine“ künstliche Intelligenz, die so denken, lernen und handeln kann wie ein Mensch – in verschiedenen Aufgabenbereichen. Sie existiert bisher nur theoretisch.
Genetic Algorithm
Ein evolutionärer Algorithmus, der Lösungen wie Gene kombiniert, mutiert und auswählt, um Probleme zu lösen. Besonders gut für komplexe Optimierungsaufgaben.
GloVe
Steht für „Global Vectors for Word Representation“. Es ist ein Modell, das Wörter in Zahlen (Vektoren) umwandelt, sodass ähnliche Wörter ähnliche Zahlen bekommen – z. B. „König“ und „Königin“.
Gradient Boosting
Eine leistungsstarke Methode, bei der viele einfache Modelle nacheinander trainiert werden – jedes neue Modell korrigiert die Fehler der vorherigen. Sehr beliebt für Wettbewerbe und Praxis.
Gradient Clipping
Eine Technik, um zu starke Änderungen beim Lernen (zu große Gradienten) zu verhindern. Sie stabilisiert das Training, besonders bei tiefen neuronalen Netzen.
Gradient Descent
Ein Verfahren, bei dem das Modell durch kleine Schritte in Richtung des geringsten Fehlers lernt – vergleichbar mit dem „Bergabsteigen“ in einer Landschaft, um das tiefste Tal (beste Lösung) zu finden.
Graph Neural Network
Ein neuronales Netzwerk, das speziell für Daten in Form von Netzwerken oder Beziehungen (Graphen) entwickelt wurde – z. B. soziale Netzwerke, Verkehrsnetze oder Molekülstrukturen.
Grid Search
Eine Methode zur systematischen Suche nach den besten Einstellungen (Hyperparametern) für ein Modell – man probiert viele Kombinationen durch und vergleicht die Ergebnisse.
GPU
Eine „Graphics Processing Unit“ ist ein spezieller Prozessor, der besonders gut für parallele Berechnungen geeignet ist – ideal fürs Training von KI-Modellen.
Ground Truth
Die „wahre Antwort“ in einem Datensatz – also das, was wirklich korrekt ist. Sie dient als Referenz beim Trainieren und Bewerten eines Modells.
Haar-Cascade
Eine ältere, aber schnelle Methode zur Gesichtserkennung in Bildern. Sie erkennt Merkmale (z. B. Augen, Nase) mithilfe einfacher Muster. Besonders für Echtzeitanwendungen geeignet.
Hardmax
Eine Funktion, die bei Klassifikationen die höchste Wahrscheinlichkeit auswählt und alle anderen auf Null setzt – also eine klare, harte Entscheidung trifft.
Heuristik
Eine einfache, praktische Faustregel, die bei Problemlösungen hilft, ohne alle Möglichkeiten durchzurechnen – oft nicht perfekt, aber schnell und nützlich.
Hidden Layer
Die „versteckten Schichten“ in einem neuronalen Netzwerk, die zwischen Eingabe und Ausgabe liegen. Hier findet das eigentliche Lernen und Verarbeiten von Mustern statt.
Hierarchical Clustering
Eine Methode zum Clustern von Daten, bei der Gruppen schrittweise zusammengefügt oder aufgeteilt werden – oft als Baumstruktur dargestellt.
Hyperparameter
Einstellungen, die das Verhalten eines KI-Modells beeinflussen, aber nicht direkt gelernt werden – z. B. Lernrate, Anzahl der Schichten oder Größe eines Entscheidungsbaums.
Hyperparameter-Tuning
Der Prozess, bei dem man die besten Hyperparameter für ein KI-Modell sucht – z. B. durch Grid Search oder Random Search. Ziel: bessere Leistung des Modells.
IBM Watson
Ein bekanntes KI-System von IBM, das durch die Teilnahme an „Jeopardy!“ berühmt wurde. Watson kombiniert natürliche Sprachverarbeitung, maschinelles Lernen und Wissensdatenbanken.
Imbalanced Data
Ein Datensatz, bei dem einige Klassen (z. B. „Krank“ vs. „Gesund“) viel häufiger vorkommen als andere. Das kann Modelle in ihrer Vorhersage verzerren, wenn es nicht ausgeglichen wird.
Inferenz
Der Vorgang, bei dem ein trainiertes Modell auf neue, unbekannte Daten angewendet wird, um Vorhersagen zu treffen. Anders als das Training ist Inferenz meist sehr schnell.
Information Gain
Ein Maß dafür, wie viel Information durch eine bestimmte Entscheidung oder Aufteilung gewonnen wird – z. B. beim Bauen eines Entscheidungsbaums. Je höher der Gewinn, desto besser die Trennung.
Inverse Reinforcement Learning
Ein Verfahren, bei dem man versucht, die zugrunde liegenden Ziele oder Belohnungen aus dem Verhalten eines Experten abzuleiten – z. B. bei der Imitation menschlicher Fahrweise.
Jaccard-Index
Ein Maß für die Ähnlichkeit zweier Mengen. Es zeigt, wie stark sich zwei Gruppen überschneiden – z. B. bei Vorhersagen im Vergleich zur tatsächlichen Klasse.
Java ML
Bezeichnet Frameworks oder Bibliotheken in der Programmiersprache Java, mit denen man maschinelles Lernen umsetzen kann – z. B. Weka, Deeplearning4j oder MOA.
JSON für KI
JSON (JavaScript Object Notation) ist ein leicht lesbares Datenformat, das oft zum Austausch von Daten zwischen Systemen genutzt wird – z. B. beim Trainieren oder Testen von KI-Modellen.
Kaggle
Eine Online-Plattform für Datenwettbewerbe und Community-Lernen. Nutzer können dort KI-Probleme lösen, Modelle einreichen, Tutorials lesen und ihr Können mit anderen messen.
k-means Clustering
Ein Algorithmus des unüberwachten Lernens, der Datenpunkte in k Gruppen (Cluster) einteilt. Der Algorithmus funktioniert iterativ: 1) k anfängliche Clusterzentren werden festgelegt, 2) jeder Datenpunkt wird dem nächstgelegenen Zentrum zugeordnet, 3) die Zentren werden neu berechnet, 4) die Schritte 2-3 werden wiederholt, bis sich kaum noch Änderungen ergeben.
k-nearest Neighbors
Ein einfacher Algorithmus, der neue Datenpunkte basierend auf den k nächstgelegenen Trainingsdatenpunkten klassifiziert oder Werte schätzt. Beispiel: Um ein neues Haus zu bewerten, betrachtet man die Preise der k ähnlichsten Häuser in der Nachbarschaft. Trotz seiner Einfachheit liefert der Algorithmus oft gute Ergebnisse.
Keras
Eine benutzerfreundliche Python-Bibliothek für neuronale Netzwerke, die als High-Level-API über TensorFlow läuft. Keras ermöglicht schnelles Experimentieren durch einfache, modulare Bauweise von neuronalen Netzwerken. Es ist besonders bei Einsteigern beliebt, da komplexe Modelle mit wenigen Codezeilen erstellt werden können.
Kernel Trick
Eine mathematische Technik, die es ermöglicht, Daten in einen höherdimensionalen Raum zu transformieren, ohne die Transformation explizit durchführen zu müssen. Dies ist nützlich für Algorithmen wie Support Vector Machines, wenn Daten nicht linear trennbar sind. Der Trick besteht darin, Ähnlichkeiten zwischen Datenpunkten direkt im höherdimensionalen Raum zu berechnen.
Knowledge Graph
Eine strukturierte Darstellung von Wissen als Netzwerk aus Entitäten (Knoten) und deren Beziehungen (Kanten). Beispiel: „Berlin“ (Entität) „ist Hauptstadt von“ (Beziehung) „Deutschland“ (Entität). Wissensgraphen werden für Suchmaschinen, Empfehlungssysteme und zur Unterstützung von KI-Systemen mit Hintergrundwissen verwendet.
Knowledge Representation
Methoden zur formalen Darstellung von Wissen für KI-Systeme. Dazu gehören logische Formeln, semantische Netze, Ontologien oder Frames. Ziel ist es, Wissen so zu strukturieren, dass Maschinen es speichern, abrufen und für Schlussfolgerungen nutzen können.
Kolmogorov-Komplexität
Ein Maß für die Komplexität eines Objekts, definiert als die Länge des kürzesten Computerprogramms, das dieses Objekt erzeugen kann. Sie ist theoretisch wichtig, aber praktisch nicht berechenbar. Das Konzept hilft bei der Formalisierung von Einfachheit und Mustererkennung in der KI.
L1-Regularisierung
Eine Technik zur Verhinderung von Überanpassung (Overfitting) in Modellen, indem die absoluten Werte der Modellparameter bestraft werden. Dies führt zu sparsamen Modellen, bei denen viele Parameter auf Null gesetzt werden. Auch bekannt als Lasso-Regularisierung. Besonders nützlich für automatische Merkmalsselektion.
L2-Regularisierung
Eine Regularisierungsmethode, die die quadrierten Werte der Modellparameter bestraft. Im Gegensatz zur L1-Regularisierung werden Parameter eher verkleinert als auf Null gesetzt. Auch bekannt als Ridge-Regularisierung. Sie hilft, die Stabilität des Modells zu verbessern und Überanpassung zu reduzieren.
Lagrange-Multiplikatoren
Eine mathematische Methode zur Optimierung unter Nebenbedingungen. In der KI werden sie verwendet, um Probleme zu lösen, bei denen bestimmte Beschränkungen eingehalten werden müssen. Beispielsweise spielen sie eine wichtige Rolle bei Support Vector Machines, um den optimalen Trennbereich zwischen Klassen zu finden.
Latent Dirichlet Allocation
Ein statistisches Modell zur Themenmodellierung in Texten. Es identifiziert automatisch wiederkehrende Themenmuster in Dokumenten, indem es Wörter zu latenten (verborgenen) Themen zuordnet und die Themenmischung jedes Dokuments ermittelt.
Latente Variablen
Nicht direkt beobachtbare Größen in KI-Modellen, die verborgene Muster oder Strukturen in Daten repräsentieren. Sie helfen, komplexe Zusammenhänge zu erfassen und vereinfachen die Darstellung von Daten in niedrigerdimensionalen Räumen.
Latent Semantic Analysis
Eine Technik zur Analyse von Beziehungen zwischen Dokumenten und den darin enthaltenen Begriffen. Sie reduziert die Dimensionalität von Textdaten und entdeckt verborgene semantische Strukturen, wodurch ähnliche Dokumente oder Konzepte identifiziert werden können.
Layer-Normalization
Eine Technik in neuronalen Netzwerken, die die Eingaben jeder Schicht normalisiert, um das Training zu stabilisieren und zu beschleunigen. Im Gegensatz zur Batch-Normalisierung wirkt sie entlang der Feature-Dimension und ist daher unabhängig von der Batch-Größe.
Leaky ReLU
Eine Aktivierungsfunktion in neuronalen Netzwerken, die im Gegensatz zur standardmäßigen ReLU-Funktion auch negative Eingabewerte nicht vollständig auf Null setzt, sondern einen kleinen Anteil durchlässt. Dies hilft, das „sterbende ReLU“-Problem zu vermeiden.
Learning Rate
Ein Hyperparameter, der bestimmt, wie stark die Gewichte eines Modells bei jedem Trainingsschritt angepasst werden. Eine zu hohe Lernrate kann zu instabilem Training führen, während eine zu niedrige Lernrate das Training verlangsamt.
LIME (Local Interpretable Model-agnostic Explanations)
Eine Technik zur Erklärung von KI-Vorhersagen, die komplexe Modelle lokal durch einfachere, interpretierbare Modelle approximiert. LIME hilft zu verstehen, welche Eingabemerkmale die Entscheidung des Modells am stärksten beeinflusst haben.
Linear Regression
Ein grundlegendes statistisches Verfahren zur Vorhersage eines kontinuierlichen Wertes basierend auf einer oder mehreren Eingabevariablen. Es modelliert den linearen Zusammenhang zwischen Eingabe und Ausgabe durch eine Geradengleichung.
Logistic Regression
Ein Klassifikationsalgorithmus, der die Wahrscheinlichkeit berechnet, dass eine Eingabe zu einer bestimmten Kategorie gehört. Trotz des Namens dient er nicht der Regression, sondern der binären oder multinomialen Klassifikation.
Long Short-Term Memory (LSTM)
Eine spezielle Art von rekurrenten neuronalen Netzwerken, die entwickelt wurde, um langfristige Abhängigkeiten in Sequenzdaten zu lernen. LSTMs verwenden Gatter-Mechanismen, um Informationen über längere Zeiträume zu speichern oder zu vergessen.
Loss Function
Eine mathematische Funktion, die misst, wie gut ein Modell die Trainingsdaten vorhersagt. Sie quantifiziert den Unterschied zwischen den Vorhersagen des Modells und den tatsächlichen Werten und wird während des Trainings minimiert.
Low-shot Learning
Lernverfahren, die mit sehr wenigen Trainingsbeispielen auskommen. Dies umfasst One-Shot-Learning (Lernen aus einem Beispiel) und Few-Shot-Learning (Lernen aus wenigen Beispielen) und ist besonders wichtig, wenn Trainingsdaten knapp sind.
Machine Learning
Ein Teilbereich der KI, bei dem Algorithmen aus Daten lernen, ohne explizit programmiert zu werden. Die Systeme verbessern ihre Leistung mit zunehmender Erfahrung und können Muster in Daten erkennen, um Vorhersagen zu treffen oder Entscheidungen zu unterstützen.
Machine Vision
Die Fähigkeit von Computern, visuelle Informationen zu erfassen und zu interpretieren. Diese Technologie ermöglicht es Maschinen, Objekte zu erkennen, zu lokalisieren und zu klassifizieren, ähnlich wie das menschliche Sehvermögen.
Markov Chain
Ein stochastisches Modell, das Übergänge zwischen verschiedenen Zuständen mit bestimmten Wahrscheinlichkeiten beschreibt. Die Besonderheit liegt darin, dass der nächste Zustand nur vom aktuellen Zustand abhängt, nicht von früheren Zuständen.
Markov Decision Process
Ein mathematisches Framework zur Modellierung von Entscheidungsproblemen, bei denen Ergebnisse teilweise zufällig und teilweise durch einen Entscheidungsträger kontrolliert werden. Es bildet die Grundlage für viele Reinforcement-Learning-Algorithmen.
Matplotlib
Eine populäre Python-Bibliothek zur Erstellung von statischen, interaktiven oder animierten Visualisierungen. Sie wird häufig in der Datenanalyse und im maschinellen Lernen verwendet, um Daten, Modellleistungen und Ergebnisse grafisch darzustellen.
Maximum Likelihood Estimation
Eine statistische Methode zur Parameterschätzung, die diejenigen Parameterwerte findet, welche die beobachteten Daten am wahrscheinlichsten machen. Sie ist ein grundlegendes Prinzip beim Training vieler maschineller Lernmodelle.
Mean Squared Error
Eine häufig verwendete Verlustfunktion, die den durchschnittlichen quadratischen Unterschied zwischen vorhergesagten und tatsächlichen Werten misst. Durch das Quadrieren werden größere Fehler stärker bestraft als kleinere.
Meta Learning
Ein Ansatz, bei dem Modelle „lernen zu lernen“, indem sie Erfahrungen aus früheren Lernaufgaben nutzen, um neue Aufgaben schneller zu erlernen. Meta-Learning strebt nach Algorithmen, die sich schnell an neue Probleme anpassen können.
Minibatch
Eine kleine, zufällig ausgewählte Teilmenge der Trainingsdaten, die für einen einzelnen Aktualisierungsschritt im Gradientenabstiegsverfahren verwendet wird. Dies ermöglicht effizienteres Training als die Verwendung des gesamten Datensatzes auf einmal.
Model Compression
Techniken zur Reduzierung der Größe und Komplexität von KI-Modellen, ohne deren Leistung wesentlich zu beeinträchtigen. Dies umfasst Pruning (Entfernen unwichtiger Verbindungen), Quantisierung oder Destillation und ist wichtig für den Einsatz auf ressourcenbeschränkten Geräten.
Model Drift
Die allmähliche Verschlechterung der Modellleistung im Laufe der Zeit, wenn sich die Daten in der realen Welt ändern und nicht mehr den Trainingsdaten entsprechen. Die Überwachung und Anpassung an Model Drift ist entscheidend für die langfristige Modellqualität.
Model Interpretability
Die Fähigkeit, die Entscheidungen oder Vorhersagen eines KI-Modells für Menschen verständlich zu machen. Interpretierbare Modelle ermöglichen Einblicke in ihre Funktionsweise und schaffen Vertrauen für kritische Anwendungen.
Monte-Carlo-Simulation
Eine computergestützte mathematische Technik, die zufällige Stichproben verwendet, um numerische Ergebnisse zu erhalten. In der KI wird sie für Wahrscheinlichkeitsschätzungen, Optimierung und Reinforcement Learning eingesetzt.
Multi-Agent Systems
Computersysteme, in denen mehrere autonome KI-Agenten interagieren und zusammenarbeiten (oder konkurrieren), um Probleme zu lösen oder Ziele zu erreichen. Diese Systeme modellieren komplexe Dynamiken wie in Märkten, Verkehr oder sozialen Netzwerken.
Multi-Label Classification
Ein maschinelles Lernproblem, bei dem einem Eingabeobjekt gleichzeitig mehrere Kategorien oder Labels zugeordnet werden können. Im Gegensatz zur einfachen Klassifikation muss das Modell für jedes mögliche Label eine Ja/Nein-Entscheidung treffen.
Multi-Task Learning
Ein Trainingsansatz, bei dem ein Modell gleichzeitig mehrere verwandte Aufgaben lernt. Durch die gemeinsame Nutzung von Repräsentationen zwischen Aufgaben kann das Modell von Übertragungseffekten profitieren und effizienter lernen.
Naïve Bayes
Ein einfacher probabilistischer Klassifikationsalgorithmus, der auf dem Bayes’schen Theorem basiert und die „naive“ Annahme trifft, dass alle Merkmale unabhängig voneinander sind. Trotz dieser Vereinfachung ist er in vielen Anwendungen, besonders bei der Textklassifikation, erstaunlich effektiv.
Named Entity Recognition
Eine NLP-Aufgabe, bei der Textpassagen identifiziert und in vordefinierte Kategorien wie Namen von Personen, Organisationen, Orten, Zeitangaben oder Geldbeträgen klassifiziert werden. Sie ist grundlegend für Informationsextraktion aus unstrukturierten Texten.
Nash-Gleichgewicht
Ein Konzept aus der Spieltheorie, bei dem kein Spieler seinen Nutzen durch einseitiges Ändern seiner Strategie verbessern kann. In der KI wird es für multiagentensysteme und adversariale Trainingsszenarien verwendet.
Natural Language Processing (NLP)
Ein Teilgebiet der KI, das sich mit der Interaktion zwischen Computern und menschlicher Sprache befasst. NLP-Technologien ermöglichen es Maschinen, Text zu verstehen, zu interpretieren, zu generieren und zu übersetzen.
Neural Architecture Search
Ein automatisierter Prozess zur Entdeckung optimaler Architekturen für neuronale Netzwerke. Statt manueller Gestaltung werden algorithmische Methoden verwendet, um die effektivste Struktur für ein bestimmtes Problem zu finden.
Neuronales Netz
Ein computerbasiertes System, das die Funktionsweise des menschlichen Gehirns nachahmt, bestehend aus miteinander verbundenen künstlichen Neuronen. Diese Netzwerke können komplexe Muster erkennen und Beziehungen in Daten lernen.
NLP Pipeline
Eine sequenzielle Abfolge von Verarbeitungsschritten zur Analyse natürlicher Sprache, typischerweise bestehend aus Vorverarbeitung (Tokenisierung, Stemming), Feature-Extraktion, Modellierung und Nachbearbeitung für Aufgaben wie Sentiment-Analyse oder Textklassifikation.
No-Free-Lunch-Theorem
Ein fundamentales Theorem, das besagt, dass kein Lernalgorithmus universell besser ist als alle anderen über alle möglichen Probleme hinweg. Die Leistung hängt immer von der Übereinstimmung zwischen Algorithmus und spezifischem Problem ab.
Noise Reduction
Techniken zur Verringerung unerwünschter Variationen oder Störungen in Daten. In der KI ist dies ein wichtiger Vorverarbeitungsschritt, um die Qualität der Eingabedaten zu verbessern und das Training stabiler zu machen.
Normalization
Der Prozess der Umwandlung von Daten in einen standardisierten Bereich, typischerweise zwischen 0 und 1 oder mit Mittelwert 0 und Standardabweichung 1. Normalisierung verbessert die Konvergenz und Stabilität beim Training neuronaler Netzwerke.
Object Detection
Ein Computer-Vision-Verfahren, das nicht nur Objekte in Bildern klassifiziert, sondern auch ihre Position durch Begrenzungsrahmen (Bounding Boxes) lokalisiert. Es ist grundlegend für Anwendungen wie autonomes Fahren oder Videoüberwachung.
One-Hot Encoding
Eine Methode zur Umwandlung kategorialer Variablen in ein numerisches Format, bei der jede Kategorie durch einen Binärvektor repräsentiert wird, der nur an einer Position den Wert 1 hat und sonst 0 ist. Dies ermöglicht die Verarbeitung durch Algorithmen, die numerische Eingaben erfordern.
OpenAI
Ein Forschungsunternehmen für künstliche Intelligenz, das 2015 gegründet wurde und für Modelle wie GPT (Generative Pre-trained Transformer), DALL·E und andere bahnbrechende KI-Technologien bekannt ist. OpenAI entwickelt und verbreitet fortschrittliche KI-Systeme mit dem Ziel, sicherzustellen, dass künstliche allgemeine Intelligenz (AGI) der Menschheit zugutekommt.
Overfitting
Ein Phänomen, bei dem ein Modell die Trainingsdaten zu genau lernt, einschließlich des darin enthaltenen Rauschens, und deshalb schlecht auf neue, ungesehene Daten generalisiert. Das Modell „memorisiert“ die Trainingsdaten, anstatt allgemeine Muster zu lernen.
Pandas
Eine leistungsstarke Python-Bibliothek für Datenanalyse und -manipulation, die Datenstrukturen wie DataFrames und Series bereitstellt. Pandas ist ein grundlegendes Werkzeug für Datenwissenschaftler zur Datenvorbereitung und Exploration vor dem Training von KI-Modellen.
Parameter Sharing
Eine Technik in neuronalen Netzwerken, bei der dieselben Parameter für verschiedene Teile des Modells verwendet werden. Besonders in Convolutional Neural Networks reduziert dies die Anzahl der zu lernenden Parameter erheblich und fördert die Erkennung ortsinvarianter Merkmale.
Pattern Recognition
Die automatische Erkennung von Regelmäßigkeiten und Mustern in Daten. Diese fundamentale KI-Fähigkeit ermöglicht es Systemen, Kategorien zu identifizieren, Vorhersagen zu treffen und komplexe Daten zu verstehen.
Perceptron
Das einfachste neuronale Netzwerk, bestehend aus einem einzelnen künstlichen Neuron, das eine gewichtete Summe seiner Eingaben berechnet und einen Schwellenwert anwendet. Es ist historisch bedeutsam als Grundbaustein komplexerer neuronaler Netzwerke.
Policy Gradient
Eine Familie von Reinforcement-Learning-Algorithmen, die direkt die Strategie (Policy) optimieren, indem sie den Gradienten der erwarteten Belohnung berechnen. Diese Methoden sind besonders nützlich für kontinuierliche Aktionsräume und stochastische Policies.
Polynomial Regression
Eine Erweiterung der linearen Regression, bei der die Beziehung zwischen unabhängigen und abhängigen Variablen als Polynom n-ten Grades modelliert wird. Dies ermöglicht die Erfassung nicht-linearer Zusammenhänge in den Daten.
Pooling Layer
Eine Schicht in Convolutional Neural Networks, die die räumlichen Dimensionen (Breite und Höhe) reduziert, indem sie mehrere Pixel zu einem zusammenfasst. Dies verringert die Rechenkosten und macht das Netzwerk robuster gegenüber kleinen Positionsänderungen.
Precision-Recall Curve
Eine grafische Darstellung des Verhältnisses zwischen Präzision (Anteil der korrekten positiven Vorhersagen) und Recall (Sensitivität) bei verschiedenen Schwellenwerten. Sie ist besonders nützlich zur Bewertung von Klassifikationsmodellen bei unausgewogenen Datensätzen.
Predictive Analytics
Die Nutzung von Daten, statistischen Algorithmen und maschinellen Lernverfahren, um die Wahrscheinlichkeit zukünftiger Ergebnisse auf Basis historischer Daten vorherzusagen. Diese Technik wird in Bereichen wie Marketing, Finanzen und Gesundheitswesen eingesetzt.
Principal Component Analysis (PCA)
Eine Dimensionsreduktionsmethode, die hochdimensionale Daten auf wenige Hauptkomponenten projiziert, die die maximale Varianz in den Daten erfassen. PCA hilft, die wichtigsten Merkmale zu identifizieren und den „Fluch der Dimensionalität“ zu mildern.
Probabilistic Graphical Models
Mathematische Modelle, die komplexe Wahrscheinlichkeitsverteilungen über viele Variablen mithilfe von Graphen darstellen. Sie visualisieren die probabilistischen Beziehungen zwischen Variablen und vereinfachen Inferenz und Lernen.
Prompt Engineering
Die Kunst der Formulierung effektiver Eingabeaufforderungen für große Sprachmodelle, um gewünschte Ausgaben zu erzielen. Es umfasst Techniken wie Zero-Shot-Prompting, Few-Shot-Prompting und Chain-of-Thought-Prompting, um die Modellleistung ohne Feinabstimmung zu verbessern.
Python für KI
Eine weit verbreitete Programmiersprache für KI-Entwicklung, die durch ihre klare Syntax, reiche Ökosystem an Bibliotheken (wie TensorFlow, PyTorch, scikit-learn) und aktive Community populär wurde. Python ist die De-facto-Standardsprache für Datenwissenschaft und maschinelles Lernen.
Q-Learning
Ein modellfreier Reinforcement-Learning-Algorithmus, der lernt, welche Aktion in welchem Zustand den höchsten erwarteten zukünftigen Belohnungswert (Q-Wert) hat. Der Agent lernt diese Q-Werte durch Exploration und Exploitation der Umgebung.
Quantum Machine Learning
Ein aufstrebendes Forschungsgebiet, das Quantencomputerkonzepte mit maschinellen Lernalgorithmen kombiniert. Es verspricht potenziell exponentiellen Geschwindigkeitszuwachs für bestimmte Berechnungen und neue Ansätze für komplexe Probleme.
Random Forest
Ein Ensemble-Lernalgorithmus, der viele Entscheidungsbäume kombiniert, die auf unterschiedlichen Datenstichproben und Merkmalsuntermengen trainiert wurden. Durch „Abstimmung“ der Bäume werden stabilere und genauere Vorhersagen erzielt als mit einzelnen Bäumen.
Rank-Based Learning
Lernverfahren, die auf der relativen Rangordnung von Objekten basieren, anstatt auf absoluten Werten. Typische Anwendungen sind Suchmaschinen, Empfehlungssysteme oder jede Aufgabe, bei der die Reihenfolge wichtiger ist als absolute Bewertungen.
Recurrent Neural Network (RNN)
Eine Klasse neuronaler Netzwerke mit Verbindungen zwischen Neuronen, die Schleifen bilden, wodurch Informationen aus früheren Eingaben „erinnert“ werden können. RNNs sind besonders geeignet für sequenzielle Daten wie Text oder Zeitreihen.
Regressionsanalyse
Statistische Verfahren zur Schätzung der Beziehungen zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen. Regression wird verwendet, um kontinuierliche Werte vorherzusagen und Zusammenhänge in Daten zu verstehen.
Reinforcement Learning
Ein Lernparadigma, bei dem ein Agent durch Interaktion mit seiner Umgebung lernt, Aktionen auszuführen, die langfristige Belohnungen maximieren. Der Agent erhält Feedback in Form von Belohnungen oder Bestrafungen und passt seine Strategie entsprechend an.
ReLU (Rectified Linear Unit)
Eine populäre Aktivierungsfunktion in neuronalen Netzwerken, die alle negativen Werte auf Null setzt und positive Werte unverändert lässt. ReLU beschleunigt das Training durch einfache Berechnung und vermeidet das Verschwinden des Gradienten-Problems.
Residual Network
Eine Architektur für tiefe neuronale Netzwerke, die „Shortcut-Verbindungen“ einführt, um Eingaben direkt zu tieferen Schichten weiterzuleiten. Diese Technik ermöglicht das Training sehr tiefer Netzwerke, indem sie das Problem des verschwindenden Gradienten abschwächt.
ROC-Kurve
Eine grafische Darstellung der Leistung eines Klassifikationsmodells, die die Richtig-Positiv-Rate (Sensitivität) gegen die Falsch-Positiv-Rate bei verschiedenen Schwellenwerten aufträgt. Die Fläche unter der Kurve (AUC) quantifiziert die Gesamtleistungsfähigkeit des Modells.
Rule-Based AI
Ein klassischer KI-Ansatz, der explizite Wenn-Dann-Regeln verwendet, die von Experten definiert werden, anstatt aus Daten zu lernen. Regelbasierte Systeme sind transparent und vorhersehbar, aber weniger flexibel als lernende Systeme.
Sampling Techniques
Methoden zur Auswahl representativer Teilmengen aus größeren Datensätzen. Diese Techniken, wie zufälliges Sampling, Stratified Sampling oder Importance Sampling, sind entscheidend für effizientes Training und Evaluation von KI-Modellen.
Scalability in AI
Die Fähigkeit eines KI-Systems, mit wachsender Datenmenge, Modellgröße oder Nutzerzahl effizient zu arbeiten. Skalierbarkeit umfasst technische Aspekte wie verteiltes Training, Modellparallelisierung und ressourceneffiziente Inferenz.
Self-Supervised Learning
Ein Lernansatz, bei dem das Modell aus den inhärenten Strukturen der Daten lernt, ohne explizite menschliche Annotation. Es generiert Überwachungssignale aus den Daten selbst, z.B. durch Vorhersage fehlender Teile, und überbrückt die Lücke zwischen überwachtem und unüberwachtem Lernen.
Semi-Supervised Learning
Ein Lernansatz, der sowohl gekennzeichnete als auch ungekennzeichnete Daten nutzt, typischerweise mit vielen ungekennzeichneten und wenigen gekennzeichneten Beispielen. Dies reduziert den Annotationsaufwand und kann die Generalisierungsfähigkeit verbessern.
Sensitivity Analysis
Die systematische Untersuchung, wie Änderungen der Eingaben oder Parameter eines Modells dessen Ausgaben beeinflussen. Diese Analyse hilft, die wichtigsten Faktoren zu identifizieren und das Modellverhalten bei Unsicherheit zu verstehen.
Sentence Embeddings
Numerische Vektordarstellungen ganzer Sätze, die deren Bedeutung im multidimensionalen Raum erfassen. Im Gegensatz zu Wort-Embeddings berücksichtigen sie den Kontext des gesamten Satzes und ermöglichen semantische Ähnlichkeitsvergleiche zwischen Sätzen.
Shannon-Entropie
Ein Maß für die Ungewissheit oder den Informationsgehalt in einer Nachricht oder einem Datensatz. In der KI dient sie als Grundlage für Entscheidungsbaumkriterien, Modellbewertung und Informationstheorie.
Siamese Network
Eine spezielle neuronale Netzwerkarchitektur mit zwei oder mehr identischen Teilnetzwerken, die die gleichen Gewichte teilen. Diese Netzwerke werden für Ähnlichkeitsvergleiche, Gesichtserkennung oder One-Shot-Learning verwendet.
Sigmoid Activation
Eine S-förmige Aktivierungsfunktion, die Eingabewerte auf den Bereich zwischen 0 und 1 abbildet. Sie wird oft in der Ausgabeschicht für binäre Klassifikation oder als Gate in rekurrenten Netzwerken verwendet.
Simulation-Based Learning
Lernansätze, bei denen KI-Agenten in simulierten Umgebungen trainiert werden, bevor sie in der realen Welt eingesetzt werden. Simulationen ermöglichen sicheres, schnelles und skalierbares Training für Robotik, autonomes Fahren oder Spielestrategien.
Softmax
Eine Aktivierungsfunktion, die einen Vektor reeller Zahlen in eine Wahrscheinlichkeitsverteilung umwandelt, wobei die Summe aller Elemente 1 ergibt. Sie wird typischerweise in der Ausgabeschicht bei Multiclass-Klassifikationsproblemen verwendet.
Sparse Data
Datensätze, in denen die meisten Elemente leere oder Nullwerte haben. Sparsität ist häufig bei hochdimensionalen Daten, Textrepräsentationen oder großen Feature-Räumen und erfordert spezielle Verarbeitungsmethoden für effizientes Training.
Speech Recognition
Die automatische Umwandlung gesprochener Sprache in Text durch KI-Systeme. Moderne Spracherkennungssysteme nutzen tiefe neuronale Netzwerke und erreichen in vielen Sprachen nahezu menschliche Genauigkeit.
Spectral Clustering
Eine Clustering-Methode, die auf der Spektraltheorie von Graphen basiert. Sie transformiert die Daten in einen niedrigdimensionalen Raum, in dem Cluster leichter zu identifizieren sind, und ist besonders effektiv für nicht-konvexe Cluster.
Stochastic Gradient Descent (SGD)
Ein Optimierungsalgorithmus, der die Gewichte eines Modells iterativ aktualisiert, indem er den Gradienten der Verlustfunktion auf einer zufälligen Teilmenge der Daten (Minibatch) berechnet. SGD ermöglicht effizientes Training mit großen Datensätzen.
Structural Risk Minimization
Ein Prinzip zur Modellauswahl, das einen Kompromiss zwischen Modellkomplexität und Anpassung an die Trainingsdaten sucht. Es zielt darauf ab, Modelle zu finden, die gut generalisieren, indem sie sowohl den empirischen Fehler als auch die Modellkomplexität minimieren.
Style Transfer
Eine Technik zur Umwandlung des visuellen Stils eines Bildes in den eines anderen, während der Inhalt erhalten bleibt. Neuronale Style-Transfer-Algorithmen können beispielsweise ein Foto im Stil eines berühmten Gemäldes neu interpretieren.
Supervised Learning
Ein Lernparadigma, bei dem das Modell anhand von gelabelten Beispielen (Eingabe-Ausgabe-Paaren) trainiert wird. Das Ziel ist, eine Funktion zu lernen, die neue, ungesehene Eingaben den korrekten Ausgaben zuordnet.
Support Vector Machine (SVM)
Ein leistungsstarker Klassifikationsalgorithmus, der eine optimale Trennebene (Hyperebene) zwischen verschiedenen Klassen findet. SVMs können durch den „Kernel-Trick“ auch nicht-linear trennbare Daten klassifizieren und sind robust gegenüber Überanpassung.
Synthetic Data
Künstlich generierte Daten, die die statistischen Eigenschaften realer Daten nachahmen. Synthetische Daten werden verwendet, um Datenschutzbedenken zu adressieren, Trainingsdaten zu ergänzen oder Szenarien zu simulieren, für die reale Daten schwer zu sammeln sind.
TensorFlow
Eine Open-Source-Bibliothek für maschinelles Lernen und numerische Berechnungen, entwickelt von Google. TensorFlow bietet ein flexibles Ökosystem von Tools und Ressourcen für das Training und die Bereitstellung von KI-Modellen in verschiedenen Umgebungen.
Text Mining
Die Anwendung von Datenanalyse- und maschinellen Lernverfahren auf Textdaten, um Muster, Trends und Erkenntnisse zu gewinnen. Text Mining umfasst Techniken wie Sentiment-Analyse, Themenerkennung und Informationsextraktion aus unstrukturierten Textdaten.
Time Series Forecasting
Die Vorhersage zukünftiger Werte basierend auf historischen, zeitlich geordneten Daten. Beispielsweise werden vergangene Aktienpreise, Wetterdaten oder Verkaufszahlen analysiert, um kommende Entwicklungen vorherzusagen. KI-Modelle erkennen dabei Muster, Trends, Saisonalität und zyklische Komponenten in den Zeitreihen.
Tokenization
Der Prozess, Text in kleinere Einheiten (Tokens) zu zerlegen, damit KI-Modelle ihn verarbeiten können. Ein Token kann ein Wort, ein Teilwort oder ein einzelnes Zeichen sein. Beispiel: Der Satz „Ich mag KI“ könnte in die Tokens [„Ich“, „mag“, „KI“] zerlegt werden. Moderne Sprachmodelle wie GPT verwenden subtilere Tokenisierungsmethoden, bei denen häufige Wortteile eigene Tokens bilden.
Transfer Learning
Eine Technik, bei der ein auf einer Aufgabe trainiertes Modell als Ausgangspunkt für eine andere, verwandte Aufgabe verwendet wird. Statt von Null zu beginnen, nutzt man das „Vorwissen“ des Modells. Beispiel: Ein auf Millionen Bildern vortrainiertes Modell kann mit wenigen Beispielen lernen, spezifische Objekte zu erkennen. Diese Methode spart Rechenleistung und Trainingsdaten.
Transformers
Eine 2017 eingeführte neuronale Netzwerkarchitektur, die heute die Grundlage moderner Sprachmodelle wie GPT und BERT bildet. Transformers verarbeiten alle Elemente einer Sequenz parallel (statt nacheinander) und nutzen einen Mechanismus namens „Attention“, um Beziehungen zwischen allen Elementen zu erfassen. Dies ermöglicht ein tieferes Verständnis von Kontext in Texten.
Tree-Based Models
Algorithmen wie Entscheidungsbäume, Random Forests oder Gradient Boosting, die Daten anhand von Ja/Nein-Entscheidungen aufteilen. Sie funktionieren wie ein Flussdiagramm: An jedem Knotenpunkt wird eine Frage gestellt und je nach Antwort ein Pfad gewählt. Diese Modelle sind leicht interpretierbar und eignen sich gut für tabellarische Daten.
Turing-Test
Ein vom Mathematiker Alan Turing 1950 vorgeschlagener Test, um festzustellen, ob eine Maschine menschenähnliche Intelligenz besitzt. Ein Mensch kommuniziert über Text mit einem unsichtbaren Gegenüber und muss entscheiden, ob es sich um einen Menschen oder eine Maschine handelt. Kann der Prüfer nicht zuverlässig unterscheiden, gilt der Test als bestanden.
Underfitting
Tritt auf, wenn ein Modell zu einfach ist, um die zugrundeliegenden Muster in den Trainingsdaten zu erfassen. Das Modell generalisiert nicht nur unbekannte Daten, sondern erkennt nicht einmal die Zusammenhänge in den Trainingsdaten. Anzeichen sind hohe Fehlerraten sowohl bei Trainings- als auch bei Testdaten.
Unsupervised Learning
Lernmethode, bei der KI-Modelle ohne vorgegebene Lösungen aus Daten lernen. Das System sucht selbstständig nach Mustern, Gruppierungen oder Anomalien. Beispiele sind Clustering-Verfahren, die ähnliche Datenpunkte gruppieren, oder Dimensionsreduktionsverfahren, die komplexe Daten vereinfachen.
Variational Autoencoder (VAE)
Ein generatives neuronales Netzwerk, das lernt_near Daten zu komprimieren und wieder zu rekonstruieren. Im Gegensatz zu normalen Autoencodern erzeugt ein VAE eine Wahrscheinlichkeitsverteilung im Latent Space (Zwischenraum), was die Generierung neuer, ähnlicher Daten ermöglicht. VAEs finden Anwendung in Bildgenerierung, Anomalieerkennung und Datenaugmentation.
Vector Embeddings
Verfahren, um Wörter, Sätze oder andere Objekte als Vektoren (numerische Punktkoordinaten) in einem mehrdimensionalen Raum darzustellen. Diese Vektoren erfassen semantische Beziehungen: Ähnliche Konzepte liegen im Vektorraum nahe beieinander. Beispiel: In guten Word-Embeddings ist der Vektor für „König“ – „Mann“ + „Frau“ nahe am Vektor für „Königin“.
Wasserstein Distance
Ein mathematisches Maß für den Abstand zwischen zwei Wahrscheinlichkeitsverteilungen. Bildlich kann man es als minimale „Transportkosten“ verstehen, um eine Verteilung in eine andere umzuwandeln. In KI wird es besonders für Generative Adversarial Networks (GANs) verwendet, um die Ähnlichkeit zwischen echten und generierten Daten zu messen.
Weak AI
Auch „schwache KI“ genannt, bezeichnet Systeme, die für spezifische Aufgaben entwickelt wurden und kein echtes Verständnis oder Bewusstsein haben. Alle heutigen KI-Systeme fallen in diese Kategorie. Sie können in ihrem speziellen Bereich überragende Leistungen erbringen, besitzen aber keine allgemeine Intelligenz oder ein Bewusstsein wie Menschen.
Weight Decay
Eine Regularisierungstechnik im maschinellen Lernen, die übermäßiges Training (Overfitting) verhindert, indem die Größe der Modellgewichte begrenzt wird. Dies führt zu einfacheren Modellen, die besser generalisieren können.
Word2Vec
Ein Algorithmus, der Wörter in numerische Vektoren umwandelt, sodass semantisch ähnliche Wörter im Vektorraum nahe beieinander liegen. Diese Worteinbettungen (Word Embeddings) ermöglichen es KI-Systemen, die Bedeutung von Texten zu verstehen.
XGBoost
Eine leistungsstarke Machine-Learning-Bibliothek für Gradient Boosting, die besonders effizient ist und in vielen Data-Science-Wettbewerben erfolgreich eingesetzt wird. Sie kombiniert mehrere schwache Vorhersagemodelle zu einem starken Gesamtmodell.
Zero-Shot Learning
Die Fähigkeit eines KI-Modells, Aufgaben zu lösen oder Objekte zu erkennen, die es während des Trainings nie gesehen hat. Das Modell überträgt dabei Wissen von bekannten auf unbekannte Kategorien.
Zufallswald
Ein Ensemble-Lernalgorithmus (auch Random Forest genannt), der viele Entscheidungsbäume kombiniert, um genauere und stabilere Vorhersagen zu treffen. Jeder Baum wird mit einer zufälligen Teilmenge der Daten und Merkmale trainiert.
Z-Score Normalization
Eine Methode zur Standardisierung von Daten, bei der jeder Wert durch seine Anzahl an Standardabweichungen vom Mittelwert ausgedrückt wird. Dies ist wichtig, damit KI-Modelle mit unterschiedlich skalierten Eingabedaten arbeiten können.
AI Dungeon
Ein textbasiertes Abenteuerspiel, das KI-generierte Geschichten erstellt, die sich auf Basis der Spielereingaben dynamisch weiterentwickeln. Es nutzt Sprachmodelle, um auf kreative Weise auf Spielereingaben zu reagieren.
Alexa AI
Die KI-Technologie hinter Amazons Sprachassistenten Alexa, die Spracherkennung, natürliche Sprachverarbeitung und maschinelles Lernen nutzt, um Benutzeranfragen zu verstehen und darauf zu reagieren.
AlphaFold
Ein von DeepMind entwickeltes KI-System, das die dreidimensionale Struktur von Proteinen mit bisher unerreichter Genauigkeit vorhersagen kann. Dies hat revolutionäre Auswirkungen auf die Medikamentenentwicklung und biologische Forschung.
AlphaGo
Das erste KI-System, das einen Go-Weltmeister besiegte. Entwickelt von DeepMind, kombiniert es neuronale Netzwerke mit Baumsuchtechniken, um in diesem komplexen Brettspiel menschliche Leistungen zu übertreffen.
AlphaZero
Eine Weiterentwicklung von AlphaGo, die ohne menschliches Vorwissen ausschließlich durch Spielen gegen sich selbst meisterhaftes Niveau in Schach, Go und Shogi erreicht. Es demonstriert allgemeinere Lernfähigkeiten als seine Vorgänger.
AutoGPT
Ein experimentelles KI-Tool, das große Sprachmodelle nutzt, um eigenständig komplexe Aufgabenreihen zu planen und durchzuführen. Es formuliert Unterziele und kann selbstständig im Internet recherchieren.
Azure AI
Microsofts Cloud-Plattform für KI-Dienste, die Entwicklern Tools für maschinelles Lernen, Computer Vision, Sprachverarbeitung und weitere KI-Funktionen bietet, ohne dass tiefe KI-Kenntnisse erforderlich sind.
Bard AI
Ein konversationelles KI-Modell von Google, das auf großen Sprachmodellen basiert und entwickelt wurde, um mit Menschen zu interagieren, Fragen zu beantworten und kreative Inhalte zu erstellen. Wurde später zu Google Gemini umbenannt.
BigGAN
Ein generatives neuronales Netzwerk zur Erzeugung hochauflösender, fotorealistischer Bilder. Es kann durch Skalierung besonders detaillierte und vielfältige Bilder generieren und wird oft für kreative Bildanwendungen eingesetzt.
Bloom
Ein mehrsprachiges großes Sprachmodell, das von über 1000 Forschern weltweit entwickelt wurde und mehr als 46 Sprachen und 13 Programmiersprachen unterstützt. Es stellt eine offene Alternative zu proprietären Modellen dar.
ChatGPT
Ein konversationelles KI-Modell von OpenAI, das auf der GPT-Architektur basiert und für Dialoge optimiert wurde. Es kann Fragen beantworten, Texte verfassen und in natürlicher Sprache interagieren.
Claude AI
Ein KI-Assistent von Anthropic, der für hilfreiches, harmloses und ehrliches Verhalten entwickelt wurde. Claude kann komplexe Gespräche führen, Texte analysieren und kreative Inhalte erstellen.
Codex
Ein auf GPT basierendes KI-Modell von OpenAI, das auf Programmieraufgaben spezialisiert ist. Es kann natürliche Sprache in Code übersetzen und bildet die Grundlage für GitHub Copilot.
ControlNet
Eine Erweiterung für Bildgenerierungsmodelle wie Stable Diffusion, die zusätzliche Kontrollebenen einführt. Damit können Nutzer die Bildgenerierung genauer steuern, z.B. durch Vorgabe von Posen, Kanten oder Tiefenkarten.
DALL·E
Ein generatives KI-Modell von OpenAI, das Bilder aus Textbeschreibungen erzeugt. Es kann kreative und surreale Konzepte visualisieren und versteht komplexe Beschreibungen und deren räumliche Beziehungen.
DeepAI
Eine Plattform, die verschiedene KI-Tools über APIs zugänglich macht, darunter Bildgenerierung, Textzusammenfassung und Inhaltsanalyse. Sie ermöglicht Entwicklern die einfache Integration von KI-Funktionen in ihre Anwendungen.
DeepDream
Ein von Google entwickelter Algorithmus, der neuronale Netzwerke nutzt, um traumähnliche, psychedelische Bilder zu erzeugen, indem er Muster in Bildern verstärkt und überinterpretiert.
DeepFaceLab
Eine Open-Source-Software zur Erstellung von Deepfakes, die hauptsächlich für den Gesichtsaustausch in Videos verwendet wird. Sie bietet verschiedene Modelle und Werkzeuge für realistische Gesichtsmanipulationen.
Deepfake
Künstlich erstellte Medieninhalte, bei denen Gesichter oder Stimmen mithilfe von Deep Learning realistisch ausgetauscht oder manipuliert werden. Dies wirft ethische Fragen bezüglich Desinformation und Identitätsmissbrauch auf.
Diffusion Models
Eine Klasse generativer KI-Modelle, die Bilder erzeugen, indem sie schrittweise Rauschen aus zufälligen Daten entfernen. Sie bilden die Grundlage vieler moderner Bildgenerierungssysteme wie Stable Diffusion.
DreamBooth
Eine Technologie, die es ermöglicht, Text-zu-Bild-Modelle wie Stable Diffusion auf bestimmte Objekte oder Personen zu trainieren, sodass diese in verschiedenen Stilen und Situationen neu dargestellt werden können.
FaceApp
Eine mobile Anwendung, die KI nutzt, um Gesichter in Fotos zu verändern, beispielsweise durch Altersfilter, Geschlechtsänderung oder Stilanpassungen. Sie verwendet fortschrittliche neuronale Netzwerke für realistische Bildmanipulationen.
Falcon LLM
Eine Familie von großen Sprachmodellen, die von der Technology Innovation Institute (TII) entwickelt wurden. Sie zeichnen sich durch gute Leistung bei relativ geringer Modellgröße aus und sind teilweise open-source verfügbar.
FastAI
Eine Programmierbibliothek, die den Einstieg in Deep Learning vereinfacht und beschleunigt. Sie bietet hochrangige Funktionen für verschiedene KI-Anwendungen wie Computer Vision, Textverarbeitung und Tabellendaten.
Firefly (Adobe AI)
Adobes KI-Technologie zur Erzeugung und Bearbeitung von Bildern und Designelementen. Sie ist in Adobe-Produkte integriert und unterstützt Kreative bei der Ideenfindung und Bildbearbeitung.
Generative AI
KI-Systeme, die neue Inhalte wie Texte, Bilder, Musik oder Videos erzeugen können. Sie lernen aus großen Datenmengen und können kreative Werke schaffen, die menschlichen Produktionen ähneln.
GitHub Copilot
Ein KI-gestützter Code-Assistent, der auf OpenAI Codex basiert und Programmiervorschläge in Echtzeit generiert. Er kann vollständige Funktionen oder Codezeilen vorschlagen und beschleunigt den Entwicklungsprozess.
Google Gemini
Googles fortschrittlichstes KI-Modell, das multimodale Fähigkeiten kombiniert und Text, Bilder, Audio und Video verarbeiten kann. Es ist in verschiedenen Größen verfügbar und folgte auf Bard als Googles Hauptassistent.
Google Bard
Der ursprüngliche Name von Googles KI-Assistent, der später zu Google Gemini umbenannt wurde. Basierte auf den PaLM und Gemini-Modellen und wurde entwickelt, um mit ChatGPT zu konkurrieren.
GPT-3
Ein großes Sprachmodell von OpenAI mit 175 Milliarden Parametern, das 2020 veröffentlicht wurde und für seine Fähigkeit bekannt ist, menschenähnlichen Text zu generieren und vielfältige Sprachaufgaben zu lösen.
GPT-3.5
Eine verbesserte Version von GPT-3, die durch zusätzliche Trainingsmethoden wie RLHF (Reinforcement Learning from Human Feedback) optimiert wurde. Es bildet die Grundlage für frühere Versionen von ChatGPT.
GPT-4
Ein multimodales großes Sprachmodell von OpenAI, das sowohl Text als auch Bilder verstehen kann. Es übertrifft seine Vorgänger in Genauigkeit, Nuanciertheit und der Fähigkeit, komplexe Anweisungen zu befolgen.
GPT-4 Turbo
Eine leistungsfähigere und effizientere Version von GPT-4 mit erweitertem Kontextfenster, aktualisierten Wissen und verbesserten Fähigkeiten. Es kann längere Eingaben verarbeiten und bietet schnellere Antworten.
Hugging Face
Eine Plattform und Community für maschinelles Lernen, die eine umfangreiche Bibliothek vortrainierter Modelle und Tools zur Verarbeitung natürlicher Sprache, Computer Vision und Audio bereitstellt.
Imagen (Google AI)
Ein Text-zu-Bild-Modell von Google, das fotorealistische Bilder aus Textbeschreibungen generieren kann. Es nutzt Diffusionsmodelle und zeichnet sich durch hohe Bildqualität und gutes Textverständnis aus.
Jasper AI
Ein KI-Schreibassistent für Marketing und Content-Erstellung, der verschiedene Textformate wie Blog-Beiträge, Social-Media-Inhalte und Werbetexte generieren kann. Er unterstützt verschiedene Tonalitäten und Marketingstrategien.
Kandinsky AI
Ein russisches Text-zu-Bild-Generierungsmodell, das nach dem Künstler Wassily Kandinsky benannt ist. Es kann Bilder in verschiedenen Stilen aus Textbeschreibungen erzeugen.
Karlo AI
Ein generatives KI-Modell für Bildgenerierung, das von der koreanischen Firma Kakao entwickelt wurde. Es kann Bilder aus Textbeschreibungen erstellen und verschiedene künstlerische Stile anwenden.
Krea AI
Eine Plattform für kreative KI-Tools, die insbesondere auf Bildgenerierung und -bearbeitung spezialisiert ist. Sie bietet intuitive Schnittstellen für die Erstellung von AI-generierten visuellen Inhalten.
LLaMA (Meta AI)
Eine Familie großer Sprachmodelle von Meta (Facebook), die als Alternative zu kommerziellen Modellen für Forschungszwecke entwickelt wurden. Die erste Version wurde mit 65 Milliarden Parametern trainiert.
LLaMA 2
Die zweite Generation von Metas LLaMA-Modellen, die unter einer offeneren Lizenz veröffentlicht wurde und für kommerzielle Nutzung freigegeben ist. Sie umfasst Modelle mit 7 bis 70 Milliarden Parametern.
LLaMA 3
Die dritte Generation der LLaMA-Modelle von Meta, mit verbesserten Fähigkeiten in Mehrsprachigkeit, Reasoning und Instruktionsbefolgung. Bietet weitere Verbesserungen gegenüber LLaMA 2.
Leonardo AI
Eine Plattform zur Erstellung von KI-generierten Bildern mit Fokus auf Spiele und kreative Industrien. Sie bietet anpassbare Modelle und Tools für konsistente Charaktere und Umgebungen.
Lexica
Eine Suchmaschine und Galerie für KI-generierte Bilder, die hauptsächlich mit Stable Diffusion erzeugt wurden. Nutzer können nach Bildern suchen und die verwendeten Prompts einsehen.
LLAMAIndex
Ein Framework (früher GPT-Index genannt), das große Sprachmodelle mit externen Datenquellen verbindet. Es ermöglicht effizientes Abfragen großer Datenmengen über natürliche Sprache.
LoRA (Low-Rank Adaptation)
Eine effiziente Methode zum Feintuning großer KI-Modelle, die nur wenige Parameter anpasst. Dies ermöglicht die Spezialisierung von Modellen mit geringerem Rechenaufwand und weniger Speicherbedarf.
Mistral AI
Ein französisches KI-Startup, das leistungsstarke und effiziente Sprachmodelle entwickelt. Ihre Modelle bieten gute Leistung bei geringerer Größe und sind teilweise open-source verfügbar.
Mixtral
Ein Mixture-of-Experts (MoE) Sprachmodell von Mistral AI, das die Effizienz durch spezialisierte Teilnetze verbessert. Es bietet Leistung vergleichbar mit größeren Modellen bei reduziertem Rechenaufwand.
Midjourney
Ein KI-Tool zur Bildgenerierung aus Textbeschreibungen, bekannt für seinen künstlerischen Stil. Es wird über Discord genutzt und erzeugt besonders ästhetisch ansprechende Bilder mit hohem künstlerischem Wert.
MusicGen
Ein KI-Modell von Meta AI zur Generierung von Musik aus Textbeschreibungen. Es kann verschiedene Genres, Stimmungen und Instrumente basierend auf textuellen Anweisungen kombinieren.
Neural Filters (Photoshop)
KI-gestützte Werkzeuge in Adobe Photoshop, die komplexe Bildbearbeitungen wie Gesichtsveränderungen, Stilübertragungen oder Entfernung von Unreinheiten mit wenigen Klicks ermöglichen.
OpenAI API
Eine Programmierschnittstelle, die Zugang zu OpenAIs KI-Modellen wie GPT-4, DALL-E und Whisper bietet. Entwickler können diese Modelle in ihre eigenen Anwendungen integrieren.
Perplexity AI
Eine KI-gestützte Suchmaschine, die natürlichsprachliche Fragen beantwortet und dabei Informationen aus verschiedenen Quellen zusammenfasst und zitiert.
Pika Labs
Ein Startup, das sich auf KI-gestützte Videogenerierung spezialisiert hat. Ihre Tools können aus Textbeschreibungen kurze Videos erstellen oder Bilder in animierte Sequenzen umwandeln.
Playground AI
Eine benutzerfreundliche Plattform für KI-Bildgenerierung, die verschiedene Modelle unterstützt und einfache Werkzeuge zur Anpassung und Bearbeitung von KI-generierten Bildern bietet.
Runway ML
Eine kreative KI-Plattform mit Schwerpunkt auf Videobearbeitung und -generierung. Sie bietet Tools für Videomanipulation, Stilübertragung und generative Video-Inhalte.
Sora (OpenAI Video AI)
Ein Text-zu-Video-Modell von OpenAI, das aus Textbeschreibungen fotorealistische Videos generieren kann. Es kann komplexe Szenen mit mehreren Charakteren, spezifischen Bewegungen und detaillierten Hintergründen erstellen.
Stable Diffusion
Ein Open-Source-Bildgenerierungsmodell, das mit Diffusionstechniken arbeitet und auf Consumer-Hardware laufen kann. Es hat eine große Community-Unterstützung und zahlreiche Anpassungsmöglichkeiten.
Stable Video Diffusion
Eine Erweiterung von Stable Diffusion zur Generierung von Videos. Es kann aus einem Einzelbild kurze Videosequenzen erzeugen oder Textbeschreibungen in animierte Szenen umwandeln.
StyleGAN
Eine Architektur für generative neuronale Netzwerke, die besonders für die Erzeugung fotorealistischer Gesichter bekannt ist. Sie erlaubt die kontrollierte Manipulation verschiedener Bildattribute wie Alter oder Gesichtsausdruck.
Synthesia
Eine Plattform zur KI-gestützten Videoproduktion, die es ermöglicht, realistische Videos mit virtuellen Präsentatoren zu erstellen. Der Text wird in eine natürlich wirkende Videoansprache umgewandelt.
Whisper (OpenAI Speech-to-Text)
Ein von OpenAI entwickeltes Spracherkennungssystem, das Audio in Text transkribieren und übersetzen kann. Es funktioniert in vielen Sprachen und ist auch bei schwierigen Audiobedingungen robust.
YOLO (You Only Look Once)
Ein Echtzeit-Objekterkennungsalgorithmus, der in einem einzigen Durchgang Objekte in Bildern identifizieren und lokalisieren kann. Er ist besonders für seine Geschwindigkeit bekannt und eignet sich für Videoanwendungen.
AI Art Generator
Tools, die KI-Technologien nutzen, um auf Basis von Textbeschreibungen oder anderen Eingaben Kunstwerke zu erzeugen. Sie kombinieren verschiedene Kunststile und -techniken, um einzigartige visuelle Inhalte zu schaffen.
AI Cartoonizer
Software, die Fotos in Cartoons oder Comic-Stil umwandelt, indem sie Konturen betont und Farben vereinfacht. Dies erfolgt durch spezielle neuronale Netzwerke für Stilübertragung.
AI Image Enhancer
Tools, die niedrigqualitative Bilder verbessern, indem sie Rauschen reduzieren, Schärfe erhöhen und Details wiederherstellen. Sie nutzen Deep-Learning-Techniken, um die visuelle Qualität zu optimieren.
AI Image Upscaler
Software, die die Auflösung von Bildern erhöht, ohne dass diese unscharf oder pixelig werden. Durch KI-gestützte Algorithmen werden dabei fehlende Details intelligent ergänzt.
AI Manga Generator
Tools zur automatischen Erstellung von Manga-Illustrationen und Comics im japanischen Stil, basierend auf Textbeschreibungen oder Skizzen.
AI Portrait Generator
KI-Systeme, die realistische oder stilisierte Porträts erzeugen können, oft basierend auf Textbeschreibungen oder als Transformation existierender Fotos in verschiedene Kunststile.
Background Removal AI
KI-gestützte Werkzeuge, die automatisch den Hintergrund von Bildern entfernen und Vordergrundobjekte isolieren. Sie nutzen Segmentierungsalgorithmen, um Personen oder Objekte präzise vom Hintergrund zu trennen.
Deep Image Super-Resolution
Techniken zur Erhöhung der Bildauflösung mithilfe von Deep Learning. Diese Methoden erzeugen hochauflösende Bilder aus niedrigauflösenden Eingaben mit bemerkenswerten Detailverbesserungen.
Image Colorization AI
KI-Systeme, die Schwarz-Weiß-Bilder automatisch einfärben können. Sie analysieren den Bildinhalt und wenden plausible Farben basierend auf gelernten Mustern an.
Image Style Transfer
Techniken, die den visuellen Stil eines Bildes (z.B. eines Gemäldes) auf ein anderes Bild übertragen. Die KI behält den Inhalt des Zielbildes bei, während sie die ästhetischen Merkmale der Stilvorlage anwendet.
Outpainting AI
KI-Technologie, die Bilder über ihre ursprünglichen Grenzen hinaus erweitert, indem sie den fehlenden Kontext außerhalb des Rahmens kreativ ergänzt. Nützlich für die Erweiterung von Kompositionen oder Änderung des Bildformats.
AI Motion Capture
Systeme, die menschliche Bewegungen aus Video- oder Sensordaten erfassen und in digitale Modelle übertragen, ohne dass spezielle Marker oder Anzüge erforderlich sind.
AI Slow Motion
Technologie, die zwischenliegende Frames in Videos künstlich erzeugt, um flüssige Zeitlupeneffekte zu schaffen, selbst wenn das Ausgangsmaterial mit niedriger Bildrate aufgenommen wurde.
AI Video Enhancement
Tools zur automatischen Verbesserung von Videoqualität, einschließlich Auflösungserhöhung, Rauschunterdrückung, Farbkorrektur und Stabilisierung mithilfe von Deep-Learning-Algorithmen.
AI Video Face Swap
Technologie, die Gesichter in Videos automatisch durch andere Gesichter ersetzt, wobei Ausdrücke, Beleuchtung und Perspektive beibehalten werden. Eine Form von Deepfake-Technologie.
Deepfake Video Generator
Software zur Erstellung von täuschend echten, aber künstlichen Videos, bei denen das Gesicht einer Person durch das einer anderen ersetzt wird, während Mimik und Lippenbewegungen beibehalten werden.
Neural Rendering
Techniken, die neuronale Netzwerke mit traditioneller Computergrafik kombinieren, um fotorealistische Bilder und Videos zu erzeugen oder zu manipulieren.
AI Copywriting
Tools, die automatisch Marketingtexte, Blog-Artikel, Produktbeschreibungen und andere Inhalte erstellen. Sie können bestimmte Tonalitäten, Zielgruppen und Marketingziele berücksichtigen.
AI Grammar Check
KI-gestützte Werkzeuge zur Erkennung und Korrektur von Grammatik-, Rechtschreib-, Interpunktions- und Stilfehlern in Texten. Sie gehen über einfache regelbasierte Prüfungen hinaus und verstehen kontextuelle Nuancen.
AI Summarization
Algorithmen, die lange Texte automatisch zusammenfassen und die wichtigsten Informationen extrahieren. Sie können die Zusammenfassungslänge anpassen und verschiedene Zusammenfassungsstile bieten.
AI Voice Cloning
Technologie zur Erstellung einer synthetischen Version einer menschlichen Stimme, die dann beliebige Texte in der charakteristischen Sprechweise dieser Person vorlesen kann.
Chatbot KI
Konversationssysteme, die durch natürliche Sprachverarbeitung mit Menschen interagieren können. Sie reichen von einfachen regelbasierten bis hin zu komplexen, auf großen Sprachmodellen basierenden Systemen.
AI Audio Enhancement
Technologien zur Verbesserung von Audioqualität, einschließlich Rauschunterdrückung, Klangoptimierung und Restaurierung beschädigter Aufnahmen mithilfe von KI-Algorithmen.
AI Music Composition
Systeme, die eigenständig Musikstücke komponieren können, basierend auf gelernten Mustern aus bestehenden Musikstücken oder auf spezifischen Anweisungen zu Stil, Stimmung und Struktur.
AI Noise Cancellation
Algorithmen zur Erkennung und Entfernung von Hintergrundgeräuschen aus Audioaufnahmen, wodurch Sprache klarer wird und die Verständlichkeit verbessert wird.
Text-to-Music AI
KI-Systeme, die aus Textbeschreibungen Musikstücke generieren können. Nutzer können Stil, Stimmung, Tempo und Instrumentierung textuell beschreiben, um passende Musik zu erzeugen.
AI Character Generation
Tools zur Erstellung virtueller Charaktere für Spiele, Filme oder andere Medien, einschließlich Aussehen, Persönlichkeit und manchmal auch Animation oder Verhalten.
Procedural Content Generation
Algorithmen zur automatischen Erstellung von Spielinhalten wie Landschaften, Levels, Quests oder Gegenstände. KI-basierte Systeme können dabei komplexere und adaptivere Inhalte erzeugen.
AI Customer Support
KI-Systeme für Kundendienst-Anwendungen, die Kundenanfragen automatisch beantworten, Probleme kategorisieren und an menschliche Mitarbeiter eskalieren können, wenn nötig.
AI Fraud Detection
Systeme, die ungewöhnliche Muster in Finanztransaktionen oder Benutzerverhalten erkennen, um Betrug zu identifizieren. Sie lernen kontinuierlich neue Betrugsmuster kennen und passen sich an.
AI Meeting Transcription
Tools, die Gespräche in Echtzeit in Text umwandeln, Sprecher unterscheiden und manchmal sogar Zusammenfassungen oder Aktionspunkte aus Besprechungen extrahieren können.