Glossar

KI-Glossar

Wichtige Begriffe und Definitionen zur Künstlichen Intelligenz

Algorithmus

Ein Algorithmus ist eine Schritt-für-Schritt-Anleitung zur Lösung eines Problems. In der KI ist ein Algorithmus ein klar definierter Prozess, mit dem ein Computer Daten analysieren, lernen oder Entscheidungen treffen kann.

Algorithmen-Bias

Das bedeutet, dass ein KI-System voreingenommene Ergebnisse liefert, weil die Daten oder die Programmierung fehlerhaft oder unausgewogen sind. Zum Beispiel kann ein Gesichtserkennungsalgorithmus schlechtere Ergebnisse bei bestimmten Hautfarben liefern, wenn er nicht mit vielfältigen Daten trainiert wurde.

Anomalieerkennung

Das ist die Fähigkeit eines Systems, ungewöhnliche oder abweichende Muster in Daten zu erkennen. Zum Beispiel kann ein KI-System ungewöhnliche Kreditkartentransaktionen entdecken, die auf Betrug hinweisen könnten.

Apache Spark

Eine Open-Source-Plattform für die schnelle Verarbeitung großer Datenmengen. Sie wird oft in KI-Projekten verwendet, um Daten effizient zu analysieren oder für das Training von Modellen.

API

Eine API (Programmierschnittstelle) erlaubt es verschiedenen Softwareprogrammen, miteinander zu kommunizieren. In der KI können APIs z. B. dafür genutzt werden, um auf eine Sprach-KI wie ChatGPT zuzugreifen.

ARIMA

Ein statistisches Modell zur Vorhersage von Zeitreihen, also Daten, die über die Zeit gesammelt wurden (z. B. Aktienkurse). ARIMA analysiert Trends und Muster in diesen Daten.

Autoencoder

Eine spezielle Art von neuronalen Netzwerken, die dazu verwendet wird, Daten zu komprimieren und dann wiederherzustellen. Autoencoder lernen wichtige Merkmale von Daten, z. B. um Bilder zu vereinfachen oder Rauschen zu entfernen.

Backpropagation

Eine Methode zum Trainieren von neuronalen Netzwerken. Dabei wird der Fehler, den das Modell gemacht hat, von hinten (Output) nach vorne (Input) zurückgerechnet, um die Gewichte im Netzwerk zu verbessern.

Bagging

Steht für „Bootstrap Aggregating“. Eine Technik im maschinellen Lernen, bei der mehrere Modelle auf zufällig ausgewählten Daten trainiert und die Ergebnisse dann kombiniert werden, um bessere Vorhersagen zu machen.

Batch-Normalisierung

Eine Technik im Training von neuronalen Netzwerken, bei der die Daten in kleinen Gruppen (Batches) normalisiert werden. Das hilft, das Training stabiler und schneller zu machen.

Bayesianisches Netzwerk

Ein Modell, das zeigt, wie verschiedene Ereignisse oder Variablen miteinander zusammenhängen. Es nutzt Wahrscheinlichkeiten, um z. B. zu schätzen, wie wahrscheinlich ein bestimmtes Ergebnis ist, wenn andere Informationen bekannt sind.

Beam Search

Eine Methode, die in der Sprachverarbeitung (z. B. maschinelles Übersetzen) verwendet wird, um effizient mehrere mögliche Antworten zu prüfen, ohne alle Möglichkeiten durchzugehen. So findet man gute, aber nicht unbedingt perfekte Ergebnisse schneller.

Begrenzte Rationalität

Ein Konzept aus der Entscheidungsforschung: Es bedeutet, dass Menschen oder Maschinen oft nur „gut genug“ entscheiden, weil sie nicht alle Informationen haben oder nicht alles berechnen können. In der KI hilft das beim Design realistischer Modelle.

Bias-Variance-Tradeoff

Ein Grundprinzip im maschinellen Lernen: Modelle müssen zwischen zwei Dingen ausbalancieren – Bias (Verzerrung), wenn ein Modell zu einfach ist, und Varianz, wenn es zu stark auf Trainingsdaten reagiert. Ziel ist ein gutes Gleichgewicht für genaue Vorhersagen.

Big Data

Sehr große und komplexe Datenmengen, die mit herkömmlicher Software schwer zu verarbeiten sind. KI nutzt Big Data, um Muster zu erkennen, Modelle zu trainieren und bessere Entscheidungen zu treffen.

Binary Classification

Eine Art von Vorhersage, bei der es nur zwei mögliche Ergebnisse gibt – z. B. „Spam“ oder „Nicht-Spam“, „Krank“ oder „Gesund“. Das ist eine häufige Aufgabe im maschinellen Lernen.

Boltzmann-Maschine

Ein spezielles neuronales Netzwerk, das Wahrscheinlichkeiten lernt und Zusammenhänge zwischen Variablen erkennt. Wird oft für unsupervised learning (also Lernen ohne gelabelte Daten) genutzt, ist aber rechnerisch aufwendig.

Boosting

Eine Technik, bei der viele schwache Modelle (die allein nur mäßig gut sind) nacheinander trainiert und kombiniert werden, um ein starkes Modell zu erzeugen. Dabei lernt jedes neue Modell aus den Fehlern der vorherigen.

Caffe

Eine Open-Source-Software, die besonders gut für das Erstellen und Trainieren von tiefen neuronalen Netzwerken geeignet ist – oft für Bildverarbeitung verwendet. Besonders beliebt bei Forschern und Entwicklern.

Capsule Networks

Eine moderne Weiterentwicklung von Convolutional Neural Networks (CNNs). Sie versucht, nicht nur Muster zu erkennen, sondern auch deren räumliche Beziehungen – z. B. ob ein Gesicht aus zusammenpassenden Augen, Nase und Mund besteht.

Chaos-Theorie

Eine mathematische Theorie, die beschreibt, wie kleine Veränderungen große Auswirkungen haben können – auch in scheinbar geordneten Systemen. In der KI wird sie manchmal verwendet, um komplexe, unvorhersehbare Muster zu analysieren.

Chatbot

Ein Programm, das automatisch mit Menschen kommunizieren kann – meist in Textform, manchmal auch mit Sprache. KI-Chatbots wie ChatGPT lernen, natürliche Sprache zu verstehen und passende Antworten zu geben.

Clustering

Eine Methode im maschinellen Lernen, bei der ähnliche Datenpunkte automatisch in Gruppen (Cluster) eingeteilt werden – z. B. Kundengruppen mit ähnlichem Verhalten. Clustering funktioniert meist ohne vorherige Kategorien.

CNN (Convolutional Neural Network)

Ein spezielles neuronales Netzwerk, das vor allem bei der Bilderkennung eingesetzt wird. CNNs können Formen, Kanten und Muster erkennen und werden z. B. für Gesichtserkennung oder medizinische Bildanalyse genutzt.

Cognitive Computing

Bezeichnet Computersysteme, die menschenähnlich „denken“ sollen – also Sprache verstehen, lernen, schlussfolgern und interagieren. Oft eine Mischung aus KI, maschinellem Lernen und natürlicher Sprachverarbeitung.

Collaborative Filtering

Eine Technik aus Empfehlungssystemen, bei der Vorschläge gemacht werden basierend auf dem Verhalten ähnlicher Nutzer. Zum Beispiel: „Andere, die dieses Buch gekauft haben, mochten auch …“.

Computational Linguistics

Die Wissenschaft vom maschinellen Verarbeiten von Sprache. Sie verbindet Linguistik mit Informatik – z. B. bei Sprachmodellen, Übersetzungsprogrammen oder Chatbots.

Computer Vision

Ein Teilbereich der KI, bei dem Computer lernen, Bilder oder Videos zu „sehen“ und zu verstehen. Typische Anwendungen sind Gesichtserkennung, Objekterkennung oder medizinische Bildanalyse.

Convergence

Bedeutet in der KI, dass ein Lernprozess zu einem stabilen Zustand kommt, in dem sich das Modell nicht mehr stark verändert – also gelernt hat, was es lernen soll. Ohne Konvergenz bleibt das Modell unzuverlässig.

Convolution

Ein mathematischer Vorgang, der in CNNs verwendet wird, um wichtige Merkmale in Bildern zu erkennen. Dabei wird ein kleiner Filter über das Bild „geschoben“, um z. B. Kanten oder Muster zu entdecken.

CUDA

Steht für „Compute Unified Device Architecture“ und ist eine Technologie von NVIDIA. Sie ermöglicht es, GPUs (Grafikkarten) für allgemeine Rechenaufgaben zu nutzen – z. B. zum Beschleunigen von KI-Trainings.

Data Augmentation

Eine Technik, bei der bestehende Trainingsdaten künstlich erweitert werden – z. B. durch Drehen, Spiegeln oder Verzerren von Bildern. Dadurch wird das KI-Modell robuster und lernt besser.

Data Engineering

Der Bereich, der sich mit dem Sammeln, Aufbereiten und Organisieren von Daten beschäftigt. Ohne gute Datenarbeit kann KI nicht effektiv trainiert werden. Data Engineers sorgen dafür, dass alles korrekt und effizient läuft.

Data Lake

Ein großer Speicherort, in dem rohe, unstrukturierte oder teilstrukturierte Daten abgelegt werden. Anders als in einer klassischen Datenbank sind die Daten nicht vorher formatiert, was Flexibilität für KI-Anwendungen bietet.

Data Leakage

Ein Fehler beim Training eines KI-Modells, bei dem versehentlich Informationen aus den Testdaten im Trainingsprozess landen. Das führt zu künstlich guten Ergebnissen – in der Realität ist das Modell dann oft unbrauchbar.

Data Mining

Der Prozess, bei dem aus großen Datenmengen automatisch Muster, Zusammenhänge oder neue Informationen entdeckt werden. KI und maschinelles Lernen spielen hier eine zentrale Rolle.

Data Pipeline

Eine strukturierte Abfolge von Schritten, mit denen Daten gesammelt, verarbeitet, analysiert und schließlich für KI oder Berichte bereitgestellt werden. Eine gute Pipeline sorgt für saubere und nützliche Daten.

Data Preprocessing

Die Vorbereitung von Daten für ein KI-Modell. Dazu gehören z. B. das Entfernen von Fehlern, das Normalisieren von Werten oder das Umwandeln von Text in Zahlen. Saubere Daten = besseres Lernen.

Data Science

Ein interdisziplinäres Feld, das Statistik, Programmierung und Fachwissen kombiniert, um aus Daten Erkenntnisse zu gewinnen. KI ist dabei oft ein Werkzeug unter vielen.

Data Warehouse

Ein zentraler Speicherort für strukturierte Daten aus verschiedenen Quellen. Anders als ein Data Lake sind die Daten hier vorher verarbeitet – ideal für Analysen, Berichte und Geschäftsentscheidungen.

Decision Tree

Ein Entscheidungsbaum ist ein Modell, das Entscheidungen als eine Abfolge von Ja/Nein-Fragen darstellt. Es ist leicht verständlich und zeigt klar, wie eine Entscheidung getroffen wird – z. B. ob ein Kunde kreditwürdig ist.

Deep Learning

Eine spezielle Form des maschinellen Lernens, die auf tiefen (mehrschichtigen) neuronalen Netzwerken basiert. Deep Learning kann komplexe Aufgaben wie Spracherkennung, Bilderkennung oder Übersetzung sehr gut lösen.

Dimensionalitätsreduktion

Eine Technik, um große Datenmengen mit vielen Merkmalen (Dimensionen) zu vereinfachen, ohne zu viel Information zu verlieren. Das hilft, Modelle schneller und verständlicher zu machen.

Discriminative Model

Ein Modell, das lernt, Unterschiede zwischen Klassen zu erkennen – also z. B. zwischen „Katze“ und „Hund“ anhand von Bildmerkmalen. Im Gegensatz dazu sagen generative Modelle, wie die Daten selbst aufgebaut sind.

Dropout

Eine Methode im Deep Learning, bei der zufällig bestimmte Teile des Netzwerks beim Training ausgeschaltet werden. Das hilft, Überanpassung zu vermeiden – das Modell wird dadurch robuster.

Edge AI

KI, die direkt auf Geräten („am Rand“ des Netzwerks) läuft – z. B. auf Smartphones, Kameras oder Sensoren. Dadurch ist die Verarbeitung schneller und es muss nicht alles in die Cloud geschickt werden.

ELBO

Steht für „Evidence Lower Bound“. Ein mathematisches Maß in der bayesianischen Statistik, das bei komplexen Modellen (wie variational inference) hilft, Wahrscheinlichkeiten gut zu schätzen. Nicht ganz trivial, aber wichtig in der Forschung.

Embeddings

Eine Technik, um komplexe Daten – wie Wörter oder Bilder – in eine komprimierte Zahlenform (Vektor) zu übersetzen. So kann ein Modell z. B. verstehen, dass „König“ und „Königin“ ähnlich sind.

Ensemble Learning

Ein Verfahren, bei dem mehrere Modelle zusammenarbeiten, um bessere Ergebnisse zu erzielen als ein einzelnes Modell. Beispiele sind „Bagging“ und „Boosting“. Oft stabiler und genauer.

Entropie

In der KI misst Entropie, wie „unsicher“ oder „unvorhersehbar“ ein System ist. Ein Modell mit hoher Entropie weiß nicht genau, was passieren wird – das hilft z. B. beim Treffen probabilistischer Entscheidungen.

Epistemische Unsicherheit

Diese Unsicherheit entsteht, wenn ein KI-Modell etwas nicht weiß – etwa weil es zu wenige oder unpassende Daten hat. Es ist die „Wissenslücke“ des Modells, nicht die Zufälligkeit der Daten.

Evolutionäre Algorithmen

Von der biologischen Evolution inspirierte Verfahren: Lösungen (wie z. B. Modellparameter) „entwickeln“ sich durch Auswahl, Mutation und Kombination, bis eine gute Lösung gefunden ist.

Explainable AI (XAI)

Ziel ist es, KI-Entscheidungen für Menschen verständlich zu machen. XAI erklärt z. B., warum ein Modell eine bestimmte Diagnose oder Empfehlung abgegeben hat.

Explorative Datenanalyse

Ein erster Schritt in der Datenanalyse: Man schaut sich Daten genau an, sucht Muster, Ausreißer oder Zusammenhänge – oft mit Hilfe von Visualisierungen. Wichtig, um die Daten zu verstehen.

F1-Score

Ein Maß für die Qualität eines Modells – besonders bei ungleichen Klassen wichtig. Es kombiniert Genauigkeit (Precision) und Vollständigkeit (Recall) zu einem einzigen Wert.

Federated Learning

Eine Technik, bei der mehrere Geräte ein gemeinsames KI-Modell trainieren, ohne ihre Daten zu teilen. Gut für Datenschutz – z. B. bei Smartphones oder Krankenhäusern.

Feature Engineering

Der kreative Prozess, aus Rohdaten sinnvolle Eingabewerte (Features) für ein Modell zu machen. Gute Features = bessere Vorhersagen.

Feature Selection

Das gezielte Auswählen der wichtigsten Merkmale (Features) für ein Modell – um Komplexität zu reduzieren, Rechenzeit zu sparen und Überanpassung zu vermeiden.

Feedforward-Netzwerk

Eine einfache Form eines neuronalen Netzwerks, bei dem Daten nur in eine Richtung durch das Netzwerk fließen – ohne Rückkopplung. Die Grundlage vieler Deep-Learning-Modelle.

Few-shot Learning

Eine Lernmethode, bei der ein KI-Modell mit sehr wenigen Beispielen auskommt – z. B. ein neues Objekt erkennen, nachdem es nur 1–5 Beispiele gesehen hat. Besonders nützlich, wenn Daten knapp sind.

Fuzzy Logic

Eine Logik, bei der Dinge nicht nur „wahr“ oder „falsch“ sind, sondern auch etwas dazwischen – z. B. „ein bisschen warm“ statt nur „warm“ oder „kalt“. Das macht Entscheidungen flexibler, wie beim Menschen.

GAN (Generative Adversarial Network)

Ein Netzwerk, das neue Daten erzeugt – z. B. Bilder. Es besteht aus zwei Teilen: einem Generator (der versucht, echte Daten zu „fälschen“) und einem Diskriminator (der prüft, ob die Daten echt sind). Sie lernen im Wettbewerb.

Gaussian Mixture Model

Ein Modell, das annimmt, dass die Daten aus mehreren überlappenden „Glockenkurven“ (Normalverteilungen) bestehen. Es wird oft zum Clustern und zur Wahrscheinlichkeitsabschätzung verwendet.

Gaussian Process

Ein flexibles Modell, das Wahrscheinlichkeitsverteilungen über Funktionen beschreibt – besonders nützlich für Vorhersagen mit Unsicherheiten, z. B. in der Bayes’schen Optimierung.

General AI

Eine „allgemeine“ künstliche Intelligenz, die so denken, lernen und handeln kann wie ein Mensch – in verschiedenen Aufgabenbereichen. Sie existiert bisher nur theoretisch.

Genetic Algorithm

Ein evolutionärer Algorithmus, der Lösungen wie Gene kombiniert, mutiert und auswählt, um Probleme zu lösen. Besonders gut für komplexe Optimierungsaufgaben.

GloVe

Steht für „Global Vectors for Word Representation“. Es ist ein Modell, das Wörter in Zahlen (Vektoren) umwandelt, sodass ähnliche Wörter ähnliche Zahlen bekommen – z. B. „König“ und „Königin“.

Gradient Boosting

Eine leistungsstarke Methode, bei der viele einfache Modelle nacheinander trainiert werden – jedes neue Modell korrigiert die Fehler der vorherigen. Sehr beliebt für Wettbewerbe und Praxis.

Gradient Clipping

Eine Technik, um zu starke Änderungen beim Lernen (zu große Gradienten) zu verhindern. Sie stabilisiert das Training, besonders bei tiefen neuronalen Netzen.

Gradient Descent

Ein Verfahren, bei dem das Modell durch kleine Schritte in Richtung des geringsten Fehlers lernt – vergleichbar mit dem „Bergabsteigen“ in einer Landschaft, um das tiefste Tal (beste Lösung) zu finden.

Graph Neural Network

Ein neuronales Netzwerk, das speziell für Daten in Form von Netzwerken oder Beziehungen (Graphen) entwickelt wurde – z. B. soziale Netzwerke, Verkehrsnetze oder Molekülstrukturen.

Grid Search

Eine Methode zur systematischen Suche nach den besten Einstellungen (Hyperparametern) für ein Modell – man probiert viele Kombinationen durch und vergleicht die Ergebnisse.

GPU

Eine „Graphics Processing Unit“ ist ein spezieller Prozessor, der besonders gut für parallele Berechnungen geeignet ist – ideal fürs Training von KI-Modellen.

Ground Truth

Die „wahre Antwort“ in einem Datensatz – also das, was wirklich korrekt ist. Sie dient als Referenz beim Trainieren und Bewerten eines Modells.

Haar-Cascade

Eine ältere, aber schnelle Methode zur Gesichtserkennung in Bildern. Sie erkennt Merkmale (z. B. Augen, Nase) mithilfe einfacher Muster. Besonders für Echtzeitanwendungen geeignet.

Hardmax

Eine Funktion, die bei Klassifikationen die höchste Wahrscheinlichkeit auswählt und alle anderen auf Null setzt – also eine klare, harte Entscheidung trifft.

Heuristik

Eine einfache, praktische Faustregel, die bei Problemlösungen hilft, ohne alle Möglichkeiten durchzurechnen – oft nicht perfekt, aber schnell und nützlich.

Hidden Layer

Die „versteckten Schichten“ in einem neuronalen Netzwerk, die zwischen Eingabe und Ausgabe liegen. Hier findet das eigentliche Lernen und Verarbeiten von Mustern statt.

Hierarchical Clustering

Eine Methode zum Clustern von Daten, bei der Gruppen schrittweise zusammengefügt oder aufgeteilt werden – oft als Baumstruktur dargestellt.

Hyperparameter

Einstellungen, die das Verhalten eines KI-Modells beeinflussen, aber nicht direkt gelernt werden – z. B. Lernrate, Anzahl der Schichten oder Größe eines Entscheidungsbaums.

Hyperparameter-Tuning

Der Prozess, bei dem man die besten Hyperparameter für ein KI-Modell sucht – z. B. durch Grid Search oder Random Search. Ziel: bessere Leistung des Modells.

IBM Watson

Ein bekanntes KI-System von IBM, das durch die Teilnahme an „Jeopardy!“ berühmt wurde. Watson kombiniert natürliche Sprachverarbeitung, maschinelles Lernen und Wissensdatenbanken.

Imbalanced Data

Ein Datensatz, bei dem einige Klassen (z. B. „Krank“ vs. „Gesund“) viel häufiger vorkommen als andere. Das kann Modelle in ihrer Vorhersage verzerren, wenn es nicht ausgeglichen wird.

Inferenz

Der Vorgang, bei dem ein trainiertes Modell auf neue, unbekannte Daten angewendet wird, um Vorhersagen zu treffen. Anders als das Training ist Inferenz meist sehr schnell.

Information Gain

Ein Maß dafür, wie viel Information durch eine bestimmte Entscheidung oder Aufteilung gewonnen wird – z. B. beim Bauen eines Entscheidungsbaums. Je höher der Gewinn, desto besser die Trennung.

Inverse Reinforcement Learning

Ein Verfahren, bei dem man versucht, die zugrunde liegenden Ziele oder Belohnungen aus dem Verhalten eines Experten abzuleiten – z. B. bei der Imitation menschlicher Fahrweise.

Jaccard-Index

Ein Maß für die Ähnlichkeit zweier Mengen. Es zeigt, wie stark sich zwei Gruppen überschneiden – z. B. bei Vorhersagen im Vergleich zur tatsächlichen Klasse.

Java ML

Bezeichnet Frameworks oder Bibliotheken in der Programmiersprache Java, mit denen man maschinelles Lernen umsetzen kann – z. B. Weka, Deeplearning4j oder MOA.

JSON für KI

JSON (JavaScript Object Notation) ist ein leicht lesbares Datenformat, das oft zum Austausch von Daten zwischen Systemen genutzt wird – z. B. beim Trainieren oder Testen von KI-Modellen.

Kaggle

Eine Online-Plattform für Datenwettbewerbe und Community-Lernen. Nutzer können dort KI-Probleme lösen, Modelle einreichen, Tutorials lesen und ihr Können mit anderen messen.

k-means Clustering

Ein Algorithmus des unüberwachten Lernens, der Datenpunkte in k Gruppen (Cluster) einteilt. Der Algorithmus funktioniert iterativ: 1) k anfängliche Clusterzentren werden festgelegt, 2) jeder Datenpunkt wird dem nächstgelegenen Zentrum zugeordnet, 3) die Zentren werden neu berechnet, 4) die Schritte 2-3 werden wiederholt, bis sich kaum noch Änderungen ergeben.

k-nearest Neighbors

Ein einfacher Algorithmus, der neue Datenpunkte basierend auf den k nächstgelegenen Trainingsdatenpunkten klassifiziert oder Werte schätzt. Beispiel: Um ein neues Haus zu bewerten, betrachtet man die Preise der k ähnlichsten Häuser in der Nachbarschaft. Trotz seiner Einfachheit liefert der Algorithmus oft gute Ergebnisse.

Keras

Eine benutzerfreundliche Python-Bibliothek für neuronale Netzwerke, die als High-Level-API über TensorFlow läuft. Keras ermöglicht schnelles Experimentieren durch einfache, modulare Bauweise von neuronalen Netzwerken. Es ist besonders bei Einsteigern beliebt, da komplexe Modelle mit wenigen Codezeilen erstellt werden können.

Kernel Trick

Eine mathematische Technik, die es ermöglicht, Daten in einen höherdimensionalen Raum zu transformieren, ohne die Transformation explizit durchführen zu müssen. Dies ist nützlich für Algorithmen wie Support Vector Machines, wenn Daten nicht linear trennbar sind. Der Trick besteht darin, Ähnlichkeiten zwischen Datenpunkten direkt im höherdimensionalen Raum zu berechnen.

Knowledge Graph

Eine strukturierte Darstellung von Wissen als Netzwerk aus Entitäten (Knoten) und deren Beziehungen (Kanten). Beispiel: „Berlin“ (Entität) „ist Hauptstadt von“ (Beziehung) „Deutschland“ (Entität). Wissensgraphen werden für Suchmaschinen, Empfehlungssysteme und zur Unterstützung von KI-Systemen mit Hintergrundwissen verwendet.

Knowledge Representation

Methoden zur formalen Darstellung von Wissen für KI-Systeme. Dazu gehören logische Formeln, semantische Netze, Ontologien oder Frames. Ziel ist es, Wissen so zu strukturieren, dass Maschinen es speichern, abrufen und für Schlussfolgerungen nutzen können.

Kolmogorov-Komplexität

Ein Maß für die Komplexität eines Objekts, definiert als die Länge des kürzesten Computerprogramms, das dieses Objekt erzeugen kann. Sie ist theoretisch wichtig, aber praktisch nicht berechenbar. Das Konzept hilft bei der Formalisierung von Einfachheit und Mustererkennung in der KI.

L1-Regularisierung

Eine Technik zur Verhinderung von Überanpassung (Overfitting) in Modellen, indem die absoluten Werte der Modellparameter bestraft werden. Dies führt zu sparsamen Modellen, bei denen viele Parameter auf Null gesetzt werden. Auch bekannt als Lasso-Regularisierung. Besonders nützlich für automatische Merkmalsselektion.

L2-Regularisierung

Eine Regularisierungsmethode, die die quadrierten Werte der Modellparameter bestraft. Im Gegensatz zur L1-Regularisierung werden Parameter eher verkleinert als auf Null gesetzt. Auch bekannt als Ridge-Regularisierung. Sie hilft, die Stabilität des Modells zu verbessern und Überanpassung zu reduzieren.

Lagrange-Multiplikatoren

Eine mathematische Methode zur Optimierung unter Nebenbedingungen. In der KI werden sie verwendet, um Probleme zu lösen, bei denen bestimmte Beschränkungen eingehalten werden müssen. Beispielsweise spielen sie eine wichtige Rolle bei Support Vector Machines, um den optimalen Trennbereich zwischen Klassen zu finden.

Latent Dirichlet Allocation

Ein statistisches Modell zur Themenmodellierung in Texten. Es identifiziert automatisch wiederkehrende Themenmuster in Dokumenten, indem es Wörter zu latenten (verborgenen) Themen zuordnet und die Themenmischung jedes Dokuments ermittelt.

Latente Variablen

Nicht direkt beobachtbare Größen in KI-Modellen, die verborgene Muster oder Strukturen in Daten repräsentieren. Sie helfen, komplexe Zusammenhänge zu erfassen und vereinfachen die Darstellung von Daten in niedrigerdimensionalen Räumen.

Latent Semantic Analysis

Eine Technik zur Analyse von Beziehungen zwischen Dokumenten und den darin enthaltenen Begriffen. Sie reduziert die Dimensionalität von Textdaten und entdeckt verborgene semantische Strukturen, wodurch ähnliche Dokumente oder Konzepte identifiziert werden können.

Layer-Normalization

Eine Technik in neuronalen Netzwerken, die die Eingaben jeder Schicht normalisiert, um das Training zu stabilisieren und zu beschleunigen. Im Gegensatz zur Batch-Normalisierung wirkt sie entlang der Feature-Dimension und ist daher unabhängig von der Batch-Größe.

Leaky ReLU

Eine Aktivierungsfunktion in neuronalen Netzwerken, die im Gegensatz zur standardmäßigen ReLU-Funktion auch negative Eingabewerte nicht vollständig auf Null setzt, sondern einen kleinen Anteil durchlässt. Dies hilft, das „sterbende ReLU“-Problem zu vermeiden.

Learning Rate

Ein Hyperparameter, der bestimmt, wie stark die Gewichte eines Modells bei jedem Trainingsschritt angepasst werden. Eine zu hohe Lernrate kann zu instabilem Training führen, während eine zu niedrige Lernrate das Training verlangsamt.

LIME (Local Interpretable Model-agnostic Explanations)

Eine Technik zur Erklärung von KI-Vorhersagen, die komplexe Modelle lokal durch einfachere, interpretierbare Modelle approximiert. LIME hilft zu verstehen, welche Eingabemerkmale die Entscheidung des Modells am stärksten beeinflusst haben.

Linear Regression

Ein grundlegendes statistisches Verfahren zur Vorhersage eines kontinuierlichen Wertes basierend auf einer oder mehreren Eingabevariablen. Es modelliert den linearen Zusammenhang zwischen Eingabe und Ausgabe durch eine Geradengleichung.

Logistic Regression

Ein Klassifikationsalgorithmus, der die Wahrscheinlichkeit berechnet, dass eine Eingabe zu einer bestimmten Kategorie gehört. Trotz des Namens dient er nicht der Regression, sondern der binären oder multinomialen Klassifikation.

Long Short-Term Memory (LSTM)

Eine spezielle Art von rekurrenten neuronalen Netzwerken, die entwickelt wurde, um langfristige Abhängigkeiten in Sequenzdaten zu lernen. LSTMs verwenden Gatter-Mechanismen, um Informationen über längere Zeiträume zu speichern oder zu vergessen.

Loss Function

Eine mathematische Funktion, die misst, wie gut ein Modell die Trainingsdaten vorhersagt. Sie quantifiziert den Unterschied zwischen den Vorhersagen des Modells und den tatsächlichen Werten und wird während des Trainings minimiert.

Low-shot Learning

Lernverfahren, die mit sehr wenigen Trainingsbeispielen auskommen. Dies umfasst One-Shot-Learning (Lernen aus einem Beispiel) und Few-Shot-Learning (Lernen aus wenigen Beispielen) und ist besonders wichtig, wenn Trainingsdaten knapp sind.

Machine Learning

Ein Teilbereich der KI, bei dem Algorithmen aus Daten lernen, ohne explizit programmiert zu werden. Die Systeme verbessern ihre Leistung mit zunehmender Erfahrung und können Muster in Daten erkennen, um Vorhersagen zu treffen oder Entscheidungen zu unterstützen.

Machine Vision

Die Fähigkeit von Computern, visuelle Informationen zu erfassen und zu interpretieren. Diese Technologie ermöglicht es Maschinen, Objekte zu erkennen, zu lokalisieren und zu klassifizieren, ähnlich wie das menschliche Sehvermögen.

Markov Chain

Ein stochastisches Modell, das Übergänge zwischen verschiedenen Zuständen mit bestimmten Wahrscheinlichkeiten beschreibt. Die Besonderheit liegt darin, dass der nächste Zustand nur vom aktuellen Zustand abhängt, nicht von früheren Zuständen.

Markov Decision Process

Ein mathematisches Framework zur Modellierung von Entscheidungsproblemen, bei denen Ergebnisse teilweise zufällig und teilweise durch einen Entscheidungsträger kontrolliert werden. Es bildet die Grundlage für viele Reinforcement-Learning-Algorithmen.

Matplotlib

Eine populäre Python-Bibliothek zur Erstellung von statischen, interaktiven oder animierten Visualisierungen. Sie wird häufig in der Datenanalyse und im maschinellen Lernen verwendet, um Daten, Modellleistungen und Ergebnisse grafisch darzustellen.

Maximum Likelihood Estimation

Eine statistische Methode zur Parameterschätzung, die diejenigen Parameterwerte findet, welche die beobachteten Daten am wahrscheinlichsten machen. Sie ist ein grundlegendes Prinzip beim Training vieler maschineller Lernmodelle.

Mean Squared Error

Eine häufig verwendete Verlustfunktion, die den durchschnittlichen quadratischen Unterschied zwischen vorhergesagten und tatsächlichen Werten misst. Durch das Quadrieren werden größere Fehler stärker bestraft als kleinere.

Meta Learning

Ein Ansatz, bei dem Modelle „lernen zu lernen“, indem sie Erfahrungen aus früheren Lernaufgaben nutzen, um neue Aufgaben schneller zu erlernen. Meta-Learning strebt nach Algorithmen, die sich schnell an neue Probleme anpassen können.

Minibatch

Eine kleine, zufällig ausgewählte Teilmenge der Trainingsdaten, die für einen einzelnen Aktualisierungsschritt im Gradientenabstiegsverfahren verwendet wird. Dies ermöglicht effizienteres Training als die Verwendung des gesamten Datensatzes auf einmal.

Model Compression

Techniken zur Reduzierung der Größe und Komplexität von KI-Modellen, ohne deren Leistung wesentlich zu beeinträchtigen. Dies umfasst Pruning (Entfernen unwichtiger Verbindungen), Quantisierung oder Destillation und ist wichtig für den Einsatz auf ressourcenbeschränkten Geräten.

Model Drift

Die allmähliche Verschlechterung der Modellleistung im Laufe der Zeit, wenn sich die Daten in der realen Welt ändern und nicht mehr den Trainingsdaten entsprechen. Die Überwachung und Anpassung an Model Drift ist entscheidend für die langfristige Modellqualität.

Model Interpretability

Die Fähigkeit, die Entscheidungen oder Vorhersagen eines KI-Modells für Menschen verständlich zu machen. Interpretierbare Modelle ermöglichen Einblicke in ihre Funktionsweise und schaffen Vertrauen für kritische Anwendungen.

Monte-Carlo-Simulation

Eine computergestützte mathematische Technik, die zufällige Stichproben verwendet, um numerische Ergebnisse zu erhalten. In der KI wird sie für Wahrscheinlichkeitsschätzungen, Optimierung und Reinforcement Learning eingesetzt.

Multi-Agent Systems

Computersysteme, in denen mehrere autonome KI-Agenten interagieren und zusammenarbeiten (oder konkurrieren), um Probleme zu lösen oder Ziele zu erreichen. Diese Systeme modellieren komplexe Dynamiken wie in Märkten, Verkehr oder sozialen Netzwerken.

Multi-Label Classification

Ein maschinelles Lernproblem, bei dem einem Eingabeobjekt gleichzeitig mehrere Kategorien oder Labels zugeordnet werden können. Im Gegensatz zur einfachen Klassifikation muss das Modell für jedes mögliche Label eine Ja/Nein-Entscheidung treffen.

Multi-Task Learning

Ein Trainingsansatz, bei dem ein Modell gleichzeitig mehrere verwandte Aufgaben lernt. Durch die gemeinsame Nutzung von Repräsentationen zwischen Aufgaben kann das Modell von Übertragungseffekten profitieren und effizienter lernen.

Naïve Bayes

Ein einfacher probabilistischer Klassifikationsalgorithmus, der auf dem Bayes’schen Theorem basiert und die „naive“ Annahme trifft, dass alle Merkmale unabhängig voneinander sind. Trotz dieser Vereinfachung ist er in vielen Anwendungen, besonders bei der Textklassifikation, erstaunlich effektiv.

Named Entity Recognition

Eine NLP-Aufgabe, bei der Textpassagen identifiziert und in vordefinierte Kategorien wie Namen von Personen, Organisationen, Orten, Zeitangaben oder Geldbeträgen klassifiziert werden. Sie ist grundlegend für Informationsextraktion aus unstrukturierten Texten.

Nash-Gleichgewicht

Ein Konzept aus der Spieltheorie, bei dem kein Spieler seinen Nutzen durch einseitiges Ändern seiner Strategie verbessern kann. In der KI wird es für multiagentensysteme und adversariale Trainingsszenarien verwendet.

Natural Language Processing (NLP)

Ein Teilgebiet der KI, das sich mit der Interaktion zwischen Computern und menschlicher Sprache befasst. NLP-Technologien ermöglichen es Maschinen, Text zu verstehen, zu interpretieren, zu generieren und zu übersetzen.

Neural Architecture Search

Ein automatisierter Prozess zur Entdeckung optimaler Architekturen für neuronale Netzwerke. Statt manueller Gestaltung werden algorithmische Methoden verwendet, um die effektivste Struktur für ein bestimmtes Problem zu finden.

Neuronales Netz

Ein computerbasiertes System, das die Funktionsweise des menschlichen Gehirns nachahmt, bestehend aus miteinander verbundenen künstlichen Neuronen. Diese Netzwerke können komplexe Muster erkennen und Beziehungen in Daten lernen.

NLP Pipeline

Eine sequenzielle Abfolge von Verarbeitungsschritten zur Analyse natürlicher Sprache, typischerweise bestehend aus Vorverarbeitung (Tokenisierung, Stemming), Feature-Extraktion, Modellierung und Nachbearbeitung für Aufgaben wie Sentiment-Analyse oder Textklassifikation.

No-Free-Lunch-Theorem

Ein fundamentales Theorem, das besagt, dass kein Lernalgorithmus universell besser ist als alle anderen über alle möglichen Probleme hinweg. Die Leistung hängt immer von der Übereinstimmung zwischen Algorithmus und spezifischem Problem ab.

Noise Reduction

Techniken zur Verringerung unerwünschter Variationen oder Störungen in Daten. In der KI ist dies ein wichtiger Vorverarbeitungsschritt, um die Qualität der Eingabedaten zu verbessern und das Training stabiler zu machen.

Normalization

Der Prozess der Umwandlung von Daten in einen standardisierten Bereich, typischerweise zwischen 0 und 1 oder mit Mittelwert 0 und Standardabweichung 1. Normalisierung verbessert die Konvergenz und Stabilität beim Training neuronaler Netzwerke.

Object Detection

Ein Computer-Vision-Verfahren, das nicht nur Objekte in Bildern klassifiziert, sondern auch ihre Position durch Begrenzungsrahmen (Bounding Boxes) lokalisiert. Es ist grundlegend für Anwendungen wie autonomes Fahren oder Videoüberwachung.

One-Hot Encoding

Eine Methode zur Umwandlung kategorialer Variablen in ein numerisches Format, bei der jede Kategorie durch einen Binärvektor repräsentiert wird, der nur an einer Position den Wert 1 hat und sonst 0 ist. Dies ermöglicht die Verarbeitung durch Algorithmen, die numerische Eingaben erfordern.

OpenAI

Ein Forschungsunternehmen für künstliche Intelligenz, das 2015 gegründet wurde und für Modelle wie GPT (Generative Pre-trained Transformer), DALL·E und andere bahnbrechende KI-Technologien bekannt ist. OpenAI entwickelt und verbreitet fortschrittliche KI-Systeme mit dem Ziel, sicherzustellen, dass künstliche allgemeine Intelligenz (AGI) der Menschheit zugutekommt.

Overfitting

Ein Phänomen, bei dem ein Modell die Trainingsdaten zu genau lernt, einschließlich des darin enthaltenen Rauschens, und deshalb schlecht auf neue, ungesehene Daten generalisiert. Das Modell „memorisiert“ die Trainingsdaten, anstatt allgemeine Muster zu lernen.

Pandas

Eine leistungsstarke Python-Bibliothek für Datenanalyse und -manipulation, die Datenstrukturen wie DataFrames und Series bereitstellt. Pandas ist ein grundlegendes Werkzeug für Datenwissenschaftler zur Datenvorbereitung und Exploration vor dem Training von KI-Modellen.

Parameter Sharing

Eine Technik in neuronalen Netzwerken, bei der dieselben Parameter für verschiedene Teile des Modells verwendet werden. Besonders in Convolutional Neural Networks reduziert dies die Anzahl der zu lernenden Parameter erheblich und fördert die Erkennung ortsinvarianter Merkmale.

Pattern Recognition

Die automatische Erkennung von Regelmäßigkeiten und Mustern in Daten. Diese fundamentale KI-Fähigkeit ermöglicht es Systemen, Kategorien zu identifizieren, Vorhersagen zu treffen und komplexe Daten zu verstehen.

Perceptron

Das einfachste neuronale Netzwerk, bestehend aus einem einzelnen künstlichen Neuron, das eine gewichtete Summe seiner Eingaben berechnet und einen Schwellenwert anwendet. Es ist historisch bedeutsam als Grundbaustein komplexerer neuronaler Netzwerke.

Policy Gradient

Eine Familie von Reinforcement-Learning-Algorithmen, die direkt die Strategie (Policy) optimieren, indem sie den Gradienten der erwarteten Belohnung berechnen. Diese Methoden sind besonders nützlich für kontinuierliche Aktionsräume und stochastische Policies.

Polynomial Regression

Eine Erweiterung der linearen Regression, bei der die Beziehung zwischen unabhängigen und abhängigen Variablen als Polynom n-ten Grades modelliert wird. Dies ermöglicht die Erfassung nicht-linearer Zusammenhänge in den Daten.

Pooling Layer

Eine Schicht in Convolutional Neural Networks, die die räumlichen Dimensionen (Breite und Höhe) reduziert, indem sie mehrere Pixel zu einem zusammenfasst. Dies verringert die Rechenkosten und macht das Netzwerk robuster gegenüber kleinen Positionsänderungen.

Precision-Recall Curve

Eine grafische Darstellung des Verhältnisses zwischen Präzision (Anteil der korrekten positiven Vorhersagen) und Recall (Sensitivität) bei verschiedenen Schwellenwerten. Sie ist besonders nützlich zur Bewertung von Klassifikationsmodellen bei unausgewogenen Datensätzen.

Predictive Analytics

Die Nutzung von Daten, statistischen Algorithmen und maschinellen Lernverfahren, um die Wahrscheinlichkeit zukünftiger Ergebnisse auf Basis historischer Daten vorherzusagen. Diese Technik wird in Bereichen wie Marketing, Finanzen und Gesundheitswesen eingesetzt.

Principal Component Analysis (PCA)

Eine Dimensionsreduktionsmethode, die hochdimensionale Daten auf wenige Hauptkomponenten projiziert, die die maximale Varianz in den Daten erfassen. PCA hilft, die wichtigsten Merkmale zu identifizieren und den „Fluch der Dimensionalität“ zu mildern.

Probabilistic Graphical Models

Mathematische Modelle, die komplexe Wahrscheinlichkeitsverteilungen über viele Variablen mithilfe von Graphen darstellen. Sie visualisieren die probabilistischen Beziehungen zwischen Variablen und vereinfachen Inferenz und Lernen.

Prompt Engineering

Die Kunst der Formulierung effektiver Eingabeaufforderungen für große Sprachmodelle, um gewünschte Ausgaben zu erzielen. Es umfasst Techniken wie Zero-Shot-Prompting, Few-Shot-Prompting und Chain-of-Thought-Prompting, um die Modellleistung ohne Feinabstimmung zu verbessern.

Python für KI

Eine weit verbreitete Programmiersprache für KI-Entwicklung, die durch ihre klare Syntax, reiche Ökosystem an Bibliotheken (wie TensorFlow, PyTorch, scikit-learn) und aktive Community populär wurde. Python ist die De-facto-Standardsprache für Datenwissenschaft und maschinelles Lernen.

Q-Learning

Ein modellfreier Reinforcement-Learning-Algorithmus, der lernt, welche Aktion in welchem Zustand den höchsten erwarteten zukünftigen Belohnungswert (Q-Wert) hat. Der Agent lernt diese Q-Werte durch Exploration und Exploitation der Umgebung.

Quantum Machine Learning

Ein aufstrebendes Forschungsgebiet, das Quantencomputerkonzepte mit maschinellen Lernalgorithmen kombiniert. Es verspricht potenziell exponentiellen Geschwindigkeitszuwachs für bestimmte Berechnungen und neue Ansätze für komplexe Probleme.

Random Forest

Ein Ensemble-Lernalgorithmus, der viele Entscheidungsbäume kombiniert, die auf unterschiedlichen Datenstichproben und Merkmalsuntermengen trainiert wurden. Durch „Abstimmung“ der Bäume werden stabilere und genauere Vorhersagen erzielt als mit einzelnen Bäumen.

Rank-Based Learning

Lernverfahren, die auf der relativen Rangordnung von Objekten basieren, anstatt auf absoluten Werten. Typische Anwendungen sind Suchmaschinen, Empfehlungssysteme oder jede Aufgabe, bei der die Reihenfolge wichtiger ist als absolute Bewertungen.

Recurrent Neural Network (RNN)

Eine Klasse neuronaler Netzwerke mit Verbindungen zwischen Neuronen, die Schleifen bilden, wodurch Informationen aus früheren Eingaben „erinnert“ werden können. RNNs sind besonders geeignet für sequenzielle Daten wie Text oder Zeitreihen.

Regressionsanalyse

Statistische Verfahren zur Schätzung der Beziehungen zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen. Regression wird verwendet, um kontinuierliche Werte vorherzusagen und Zusammenhänge in Daten zu verstehen.

Reinforcement Learning

Ein Lernparadigma, bei dem ein Agent durch Interaktion mit seiner Umgebung lernt, Aktionen auszuführen, die langfristige Belohnungen maximieren. Der Agent erhält Feedback in Form von Belohnungen oder Bestrafungen und passt seine Strategie entsprechend an.

ReLU (Rectified Linear Unit)

Eine populäre Aktivierungsfunktion in neuronalen Netzwerken, die alle negativen Werte auf Null setzt und positive Werte unverändert lässt. ReLU beschleunigt das Training durch einfache Berechnung und vermeidet das Verschwinden des Gradienten-Problems.

Residual Network

Eine Architektur für tiefe neuronale Netzwerke, die „Shortcut-Verbindungen“ einführt, um Eingaben direkt zu tieferen Schichten weiterzuleiten. Diese Technik ermöglicht das Training sehr tiefer Netzwerke, indem sie das Problem des verschwindenden Gradienten abschwächt.

ROC-Kurve

Eine grafische Darstellung der Leistung eines Klassifikationsmodells, die die Richtig-Positiv-Rate (Sensitivität) gegen die Falsch-Positiv-Rate bei verschiedenen Schwellenwerten aufträgt. Die Fläche unter der Kurve (AUC) quantifiziert die Gesamtleistungsfähigkeit des Modells.

Rule-Based AI

Ein klassischer KI-Ansatz, der explizite Wenn-Dann-Regeln verwendet, die von Experten definiert werden, anstatt aus Daten zu lernen. Regelbasierte Systeme sind transparent und vorhersehbar, aber weniger flexibel als lernende Systeme.

Sampling Techniques

Methoden zur Auswahl representativer Teilmengen aus größeren Datensätzen. Diese Techniken, wie zufälliges Sampling, Stratified Sampling oder Importance Sampling, sind entscheidend für effizientes Training und Evaluation von KI-Modellen.

Scalability in AI

Die Fähigkeit eines KI-Systems, mit wachsender Datenmenge, Modellgröße oder Nutzerzahl effizient zu arbeiten. Skalierbarkeit umfasst technische Aspekte wie verteiltes Training, Modellparallelisierung und ressourceneffiziente Inferenz.

Self-Supervised Learning

Ein Lernansatz, bei dem das Modell aus den inhärenten Strukturen der Daten lernt, ohne explizite menschliche Annotation. Es generiert Überwachungssignale aus den Daten selbst, z.B. durch Vorhersage fehlender Teile, und überbrückt die Lücke zwischen überwachtem und unüberwachtem Lernen.

Semi-Supervised Learning

Ein Lernansatz, der sowohl gekennzeichnete als auch ungekennzeichnete Daten nutzt, typischerweise mit vielen ungekennzeichneten und wenigen gekennzeichneten Beispielen. Dies reduziert den Annotationsaufwand und kann die Generalisierungsfähigkeit verbessern.

Sensitivity Analysis

Die systematische Untersuchung, wie Änderungen der Eingaben oder Parameter eines Modells dessen Ausgaben beeinflussen. Diese Analyse hilft, die wichtigsten Faktoren zu identifizieren und das Modellverhalten bei Unsicherheit zu verstehen.

Sentence Embeddings

Numerische Vektordarstellungen ganzer Sätze, die deren Bedeutung im multidimensionalen Raum erfassen. Im Gegensatz zu Wort-Embeddings berücksichtigen sie den Kontext des gesamten Satzes und ermöglichen semantische Ähnlichkeitsvergleiche zwischen Sätzen.

Shannon-Entropie

Ein Maß für die Ungewissheit oder den Informationsgehalt in einer Nachricht oder einem Datensatz. In der KI dient sie als Grundlage für Entscheidungsbaumkriterien, Modellbewertung und Informationstheorie.

Siamese Network

Eine spezielle neuronale Netzwerkarchitektur mit zwei oder mehr identischen Teilnetzwerken, die die gleichen Gewichte teilen. Diese Netzwerke werden für Ähnlichkeitsvergleiche, Gesichtserkennung oder One-Shot-Learning verwendet.

Sigmoid Activation

Eine S-förmige Aktivierungsfunktion, die Eingabewerte auf den Bereich zwischen 0 und 1 abbildet. Sie wird oft in der Ausgabeschicht für binäre Klassifikation oder als Gate in rekurrenten Netzwerken verwendet.

Simulation-Based Learning

Lernansätze, bei denen KI-Agenten in simulierten Umgebungen trainiert werden, bevor sie in der realen Welt eingesetzt werden. Simulationen ermöglichen sicheres, schnelles und skalierbares Training für Robotik, autonomes Fahren oder Spielestrategien.

Softmax

Eine Aktivierungsfunktion, die einen Vektor reeller Zahlen in eine Wahrscheinlichkeitsverteilung umwandelt, wobei die Summe aller Elemente 1 ergibt. Sie wird typischerweise in der Ausgabeschicht bei Multiclass-Klassifikationsproblemen verwendet.

Sparse Data

Datensätze, in denen die meisten Elemente leere oder Nullwerte haben. Sparsität ist häufig bei hochdimensionalen Daten, Textrepräsentationen oder großen Feature-Räumen und erfordert spezielle Verarbeitungsmethoden für effizientes Training.

Speech Recognition

Die automatische Umwandlung gesprochener Sprache in Text durch KI-Systeme. Moderne Spracherkennungssysteme nutzen tiefe neuronale Netzwerke und erreichen in vielen Sprachen nahezu menschliche Genauigkeit.

Spectral Clustering

Eine Clustering-Methode, die auf der Spektraltheorie von Graphen basiert. Sie transformiert die Daten in einen niedrigdimensionalen Raum, in dem Cluster leichter zu identifizieren sind, und ist besonders effektiv für nicht-konvexe Cluster.

Stochastic Gradient Descent (SGD)

Ein Optimierungsalgorithmus, der die Gewichte eines Modells iterativ aktualisiert, indem er den Gradienten der Verlustfunktion auf einer zufälligen Teilmenge der Daten (Minibatch) berechnet. SGD ermöglicht effizientes Training mit großen Datensätzen.

Structural Risk Minimization

Ein Prinzip zur Modellauswahl, das einen Kompromiss zwischen Modellkomplexität und Anpassung an die Trainingsdaten sucht. Es zielt darauf ab, Modelle zu finden, die gut generalisieren, indem sie sowohl den empirischen Fehler als auch die Modellkomplexität minimieren.

Style Transfer

Eine Technik zur Umwandlung des visuellen Stils eines Bildes in den eines anderen, während der Inhalt erhalten bleibt. Neuronale Style-Transfer-Algorithmen können beispielsweise ein Foto im Stil eines berühmten Gemäldes neu interpretieren.

Supervised Learning

Ein Lernparadigma, bei dem das Modell anhand von gelabelten Beispielen (Eingabe-Ausgabe-Paaren) trainiert wird. Das Ziel ist, eine Funktion zu lernen, die neue, ungesehene Eingaben den korrekten Ausgaben zuordnet.

Support Vector Machine (SVM)

Ein leistungsstarker Klassifikationsalgorithmus, der eine optimale Trennebene (Hyperebene) zwischen verschiedenen Klassen findet. SVMs können durch den „Kernel-Trick“ auch nicht-linear trennbare Daten klassifizieren und sind robust gegenüber Überanpassung.

Synthetic Data

Künstlich generierte Daten, die die statistischen Eigenschaften realer Daten nachahmen. Synthetische Daten werden verwendet, um Datenschutzbedenken zu adressieren, Trainingsdaten zu ergänzen oder Szenarien zu simulieren, für die reale Daten schwer zu sammeln sind.

TensorFlow

Eine Open-Source-Bibliothek für maschinelles Lernen und numerische Berechnungen, entwickelt von Google. TensorFlow bietet ein flexibles Ökosystem von Tools und Ressourcen für das Training und die Bereitstellung von KI-Modellen in verschiedenen Umgebungen.

Text Mining

Die Anwendung von Datenanalyse- und maschinellen Lernverfahren auf Textdaten, um Muster, Trends und Erkenntnisse zu gewinnen. Text Mining umfasst Techniken wie Sentiment-Analyse, Themenerkennung und Informationsextraktion aus unstrukturierten Textdaten.

Time Series Forecasting

Die Vorhersage zukünftiger Werte basierend auf historischen, zeitlich geordneten Daten. Beispielsweise werden vergangene Aktienpreise, Wetterdaten oder Verkaufszahlen analysiert, um kommende Entwicklungen vorherzusagen. KI-Modelle erkennen dabei Muster, Trends, Saisonalität und zyklische Komponenten in den Zeitreihen.

Tokenization

Der Prozess, Text in kleinere Einheiten (Tokens) zu zerlegen, damit KI-Modelle ihn verarbeiten können. Ein Token kann ein Wort, ein Teilwort oder ein einzelnes Zeichen sein. Beispiel: Der Satz „Ich mag KI“ könnte in die Tokens [„Ich“, „mag“, „KI“] zerlegt werden. Moderne Sprachmodelle wie GPT verwenden subtilere Tokenisierungsmethoden, bei denen häufige Wortteile eigene Tokens bilden.

Transfer Learning

Eine Technik, bei der ein auf einer Aufgabe trainiertes Modell als Ausgangspunkt für eine andere, verwandte Aufgabe verwendet wird. Statt von Null zu beginnen, nutzt man das „Vorwissen“ des Modells. Beispiel: Ein auf Millionen Bildern vortrainiertes Modell kann mit wenigen Beispielen lernen, spezifische Objekte zu erkennen. Diese Methode spart Rechenleistung und Trainingsdaten.

Transformers

Eine 2017 eingeführte neuronale Netzwerkarchitektur, die heute die Grundlage moderner Sprachmodelle wie GPT und BERT bildet. Transformers verarbeiten alle Elemente einer Sequenz parallel (statt nacheinander) und nutzen einen Mechanismus namens „Attention“, um Beziehungen zwischen allen Elementen zu erfassen. Dies ermöglicht ein tieferes Verständnis von Kontext in Texten.

Tree-Based Models

Algorithmen wie Entscheidungsbäume, Random Forests oder Gradient Boosting, die Daten anhand von Ja/Nein-Entscheidungen aufteilen. Sie funktionieren wie ein Flussdiagramm: An jedem Knotenpunkt wird eine Frage gestellt und je nach Antwort ein Pfad gewählt. Diese Modelle sind leicht interpretierbar und eignen sich gut für tabellarische Daten.

Turing-Test

Ein vom Mathematiker Alan Turing 1950 vorgeschlagener Test, um festzustellen, ob eine Maschine menschenähnliche Intelligenz besitzt. Ein Mensch kommuniziert über Text mit einem unsichtbaren Gegenüber und muss entscheiden, ob es sich um einen Menschen oder eine Maschine handelt. Kann der Prüfer nicht zuverlässig unterscheiden, gilt der Test als bestanden.

Underfitting

Tritt auf, wenn ein Modell zu einfach ist, um die zugrundeliegenden Muster in den Trainingsdaten zu erfassen. Das Modell generalisiert nicht nur unbekannte Daten, sondern erkennt nicht einmal die Zusammenhänge in den Trainingsdaten. Anzeichen sind hohe Fehlerraten sowohl bei Trainings- als auch bei Testdaten.

Unsupervised Learning

Lernmethode, bei der KI-Modelle ohne vorgegebene Lösungen aus Daten lernen. Das System sucht selbstständig nach Mustern, Gruppierungen oder Anomalien. Beispiele sind Clustering-Verfahren, die ähnliche Datenpunkte gruppieren, oder Dimensionsreduktionsverfahren, die komplexe Daten vereinfachen.

Variational Autoencoder (VAE)

Ein generatives neuronales Netzwerk, das lernt_near Daten zu komprimieren und wieder zu rekonstruieren. Im Gegensatz zu normalen Autoencodern erzeugt ein VAE eine Wahrscheinlichkeitsverteilung im Latent Space (Zwischenraum), was die Generierung neuer, ähnlicher Daten ermöglicht. VAEs finden Anwendung in Bildgenerierung, Anomalieerkennung und Datenaugmentation.

Vector Embeddings

Verfahren, um Wörter, Sätze oder andere Objekte als Vektoren (numerische Punktkoordinaten) in einem mehrdimensionalen Raum darzustellen. Diese Vektoren erfassen semantische Beziehungen: Ähnliche Konzepte liegen im Vektorraum nahe beieinander. Beispiel: In guten Word-Embeddings ist der Vektor für „König“ – „Mann“ + „Frau“ nahe am Vektor für „Königin“.

Wasserstein Distance

Ein mathematisches Maß für den Abstand zwischen zwei Wahrscheinlichkeitsverteilungen. Bildlich kann man es als minimale „Transportkosten“ verstehen, um eine Verteilung in eine andere umzuwandeln. In KI wird es besonders für Generative Adversarial Networks (GANs) verwendet, um die Ähnlichkeit zwischen echten und generierten Daten zu messen.

Weak AI

Auch „schwache KI“ genannt, bezeichnet Systeme, die für spezifische Aufgaben entwickelt wurden und kein echtes Verständnis oder Bewusstsein haben. Alle heutigen KI-Systeme fallen in diese Kategorie. Sie können in ihrem speziellen Bereich überragende Leistungen erbringen, besitzen aber keine allgemeine Intelligenz oder ein Bewusstsein wie Menschen.

Weight Decay

Eine Regularisierungstechnik im maschinellen Lernen, die übermäßiges Training (Overfitting) verhindert, indem die Größe der Modellgewichte begrenzt wird. Dies führt zu einfacheren Modellen, die besser generalisieren können.

Word2Vec

Ein Algorithmus, der Wörter in numerische Vektoren umwandelt, sodass semantisch ähnliche Wörter im Vektorraum nahe beieinander liegen. Diese Worteinbettungen (Word Embeddings) ermöglichen es KI-Systemen, die Bedeutung von Texten zu verstehen.

XGBoost

Eine leistungsstarke Machine-Learning-Bibliothek für Gradient Boosting, die besonders effizient ist und in vielen Data-Science-Wettbewerben erfolgreich eingesetzt wird. Sie kombiniert mehrere schwache Vorhersagemodelle zu einem starken Gesamtmodell.

Zero-Shot Learning

Die Fähigkeit eines KI-Modells, Aufgaben zu lösen oder Objekte zu erkennen, die es während des Trainings nie gesehen hat. Das Modell überträgt dabei Wissen von bekannten auf unbekannte Kategorien.

Zufallswald

Ein Ensemble-Lernalgorithmus (auch Random Forest genannt), der viele Entscheidungsbäume kombiniert, um genauere und stabilere Vorhersagen zu treffen. Jeder Baum wird mit einer zufälligen Teilmenge der Daten und Merkmale trainiert.

Z-Score Normalization

Eine Methode zur Standardisierung von Daten, bei der jeder Wert durch seine Anzahl an Standardabweichungen vom Mittelwert ausgedrückt wird. Dies ist wichtig, damit KI-Modelle mit unterschiedlich skalierten Eingabedaten arbeiten können.

AI Dungeon

Ein textbasiertes Abenteuerspiel, das KI-generierte Geschichten erstellt, die sich auf Basis der Spielereingaben dynamisch weiterentwickeln. Es nutzt Sprachmodelle, um auf kreative Weise auf Spielereingaben zu reagieren.

Alexa AI

Die KI-Technologie hinter Amazons Sprachassistenten Alexa, die Spracherkennung, natürliche Sprachverarbeitung und maschinelles Lernen nutzt, um Benutzeranfragen zu verstehen und darauf zu reagieren.

AlphaFold

Ein von DeepMind entwickeltes KI-System, das die dreidimensionale Struktur von Proteinen mit bisher unerreichter Genauigkeit vorhersagen kann. Dies hat revolutionäre Auswirkungen auf die Medikamentenentwicklung und biologische Forschung.

AlphaGo

Das erste KI-System, das einen Go-Weltmeister besiegte. Entwickelt von DeepMind, kombiniert es neuronale Netzwerke mit Baumsuchtechniken, um in diesem komplexen Brettspiel menschliche Leistungen zu übertreffen.

AlphaZero

Eine Weiterentwicklung von AlphaGo, die ohne menschliches Vorwissen ausschließlich durch Spielen gegen sich selbst meisterhaftes Niveau in Schach, Go und Shogi erreicht. Es demonstriert allgemeinere Lernfähigkeiten als seine Vorgänger.

AutoGPT

Ein experimentelles KI-Tool, das große Sprachmodelle nutzt, um eigenständig komplexe Aufgabenreihen zu planen und durchzuführen. Es formuliert Unterziele und kann selbstständig im Internet recherchieren.

Azure AI

Microsofts Cloud-Plattform für KI-Dienste, die Entwicklern Tools für maschinelles Lernen, Computer Vision, Sprachverarbeitung und weitere KI-Funktionen bietet, ohne dass tiefe KI-Kenntnisse erforderlich sind.

Bard AI

Ein konversationelles KI-Modell von Google, das auf großen Sprachmodellen basiert und entwickelt wurde, um mit Menschen zu interagieren, Fragen zu beantworten und kreative Inhalte zu erstellen. Wurde später zu Google Gemini umbenannt.

BigGAN

Ein generatives neuronales Netzwerk zur Erzeugung hochauflösender, fotorealistischer Bilder. Es kann durch Skalierung besonders detaillierte und vielfältige Bilder generieren und wird oft für kreative Bildanwendungen eingesetzt.

Bloom

Ein mehrsprachiges großes Sprachmodell, das von über 1000 Forschern weltweit entwickelt wurde und mehr als 46 Sprachen und 13 Programmiersprachen unterstützt. Es stellt eine offene Alternative zu proprietären Modellen dar.

ChatGPT

Ein konversationelles KI-Modell von OpenAI, das auf der GPT-Architektur basiert und für Dialoge optimiert wurde. Es kann Fragen beantworten, Texte verfassen und in natürlicher Sprache interagieren.

Claude AI

Ein KI-Assistent von Anthropic, der für hilfreiches, harmloses und ehrliches Verhalten entwickelt wurde. Claude kann komplexe Gespräche führen, Texte analysieren und kreative Inhalte erstellen.

Codex

Ein auf GPT basierendes KI-Modell von OpenAI, das auf Programmieraufgaben spezialisiert ist. Es kann natürliche Sprache in Code übersetzen und bildet die Grundlage für GitHub Copilot.

ControlNet

Eine Erweiterung für Bildgenerierungsmodelle wie Stable Diffusion, die zusätzliche Kontrollebenen einführt. Damit können Nutzer die Bildgenerierung genauer steuern, z.B. durch Vorgabe von Posen, Kanten oder Tiefenkarten.

DALL·E

Ein generatives KI-Modell von OpenAI, das Bilder aus Textbeschreibungen erzeugt. Es kann kreative und surreale Konzepte visualisieren und versteht komplexe Beschreibungen und deren räumliche Beziehungen.

DeepAI

Eine Plattform, die verschiedene KI-Tools über APIs zugänglich macht, darunter Bildgenerierung, Textzusammenfassung und Inhaltsanalyse. Sie ermöglicht Entwicklern die einfache Integration von KI-Funktionen in ihre Anwendungen.

DeepDream

Ein von Google entwickelter Algorithmus, der neuronale Netzwerke nutzt, um traumähnliche, psychedelische Bilder zu erzeugen, indem er Muster in Bildern verstärkt und überinterpretiert.

DeepFaceLab

Eine Open-Source-Software zur Erstellung von Deepfakes, die hauptsächlich für den Gesichtsaustausch in Videos verwendet wird. Sie bietet verschiedene Modelle und Werkzeuge für realistische Gesichtsmanipulationen.

Deepfake

Künstlich erstellte Medieninhalte, bei denen Gesichter oder Stimmen mithilfe von Deep Learning realistisch ausgetauscht oder manipuliert werden. Dies wirft ethische Fragen bezüglich Desinformation und Identitätsmissbrauch auf.

Diffusion Models

Eine Klasse generativer KI-Modelle, die Bilder erzeugen, indem sie schrittweise Rauschen aus zufälligen Daten entfernen. Sie bilden die Grundlage vieler moderner Bildgenerierungssysteme wie Stable Diffusion.

DreamBooth

Eine Technologie, die es ermöglicht, Text-zu-Bild-Modelle wie Stable Diffusion auf bestimmte Objekte oder Personen zu trainieren, sodass diese in verschiedenen Stilen und Situationen neu dargestellt werden können.

FaceApp

Eine mobile Anwendung, die KI nutzt, um Gesichter in Fotos zu verändern, beispielsweise durch Altersfilter, Geschlechtsänderung oder Stilanpassungen. Sie verwendet fortschrittliche neuronale Netzwerke für realistische Bildmanipulationen.

Falcon LLM

Eine Familie von großen Sprachmodellen, die von der Technology Innovation Institute (TII) entwickelt wurden. Sie zeichnen sich durch gute Leistung bei relativ geringer Modellgröße aus und sind teilweise open-source verfügbar.

FastAI

Eine Programmierbibliothek, die den Einstieg in Deep Learning vereinfacht und beschleunigt. Sie bietet hochrangige Funktionen für verschiedene KI-Anwendungen wie Computer Vision, Textverarbeitung und Tabellendaten.

Firefly (Adobe AI)

Adobes KI-Technologie zur Erzeugung und Bearbeitung von Bildern und Designelementen. Sie ist in Adobe-Produkte integriert und unterstützt Kreative bei der Ideenfindung und Bildbearbeitung.

Generative AI

KI-Systeme, die neue Inhalte wie Texte, Bilder, Musik oder Videos erzeugen können. Sie lernen aus großen Datenmengen und können kreative Werke schaffen, die menschlichen Produktionen ähneln.

GitHub Copilot

Ein KI-gestützter Code-Assistent, der auf OpenAI Codex basiert und Programmiervorschläge in Echtzeit generiert. Er kann vollständige Funktionen oder Codezeilen vorschlagen und beschleunigt den Entwicklungsprozess.

Google Gemini

Googles fortschrittlichstes KI-Modell, das multimodale Fähigkeiten kombiniert und Text, Bilder, Audio und Video verarbeiten kann. Es ist in verschiedenen Größen verfügbar und folgte auf Bard als Googles Hauptassistent.

Google Bard

Der ursprüngliche Name von Googles KI-Assistent, der später zu Google Gemini umbenannt wurde. Basierte auf den PaLM und Gemini-Modellen und wurde entwickelt, um mit ChatGPT zu konkurrieren.

GPT-3

Ein großes Sprachmodell von OpenAI mit 175 Milliarden Parametern, das 2020 veröffentlicht wurde und für seine Fähigkeit bekannt ist, menschenähnlichen Text zu generieren und vielfältige Sprachaufgaben zu lösen.

GPT-3.5

Eine verbesserte Version von GPT-3, die durch zusätzliche Trainingsmethoden wie RLHF (Reinforcement Learning from Human Feedback) optimiert wurde. Es bildet die Grundlage für frühere Versionen von ChatGPT.

GPT-4

Ein multimodales großes Sprachmodell von OpenAI, das sowohl Text als auch Bilder verstehen kann. Es übertrifft seine Vorgänger in Genauigkeit, Nuanciertheit und der Fähigkeit, komplexe Anweisungen zu befolgen.

GPT-4 Turbo

Eine leistungsfähigere und effizientere Version von GPT-4 mit erweitertem Kontextfenster, aktualisierten Wissen und verbesserten Fähigkeiten. Es kann längere Eingaben verarbeiten und bietet schnellere Antworten.

Hugging Face

Eine Plattform und Community für maschinelles Lernen, die eine umfangreiche Bibliothek vortrainierter Modelle und Tools zur Verarbeitung natürlicher Sprache, Computer Vision und Audio bereitstellt.

Imagen (Google AI)

Ein Text-zu-Bild-Modell von Google, das fotorealistische Bilder aus Textbeschreibungen generieren kann. Es nutzt Diffusionsmodelle und zeichnet sich durch hohe Bildqualität und gutes Textverständnis aus.

Jasper AI

Ein KI-Schreibassistent für Marketing und Content-Erstellung, der verschiedene Textformate wie Blog-Beiträge, Social-Media-Inhalte und Werbetexte generieren kann. Er unterstützt verschiedene Tonalitäten und Marketingstrategien.

Kandinsky AI

Ein russisches Text-zu-Bild-Generierungsmodell, das nach dem Künstler Wassily Kandinsky benannt ist. Es kann Bilder in verschiedenen Stilen aus Textbeschreibungen erzeugen.

Karlo AI

Ein generatives KI-Modell für Bildgenerierung, das von der koreanischen Firma Kakao entwickelt wurde. Es kann Bilder aus Textbeschreibungen erstellen und verschiedene künstlerische Stile anwenden.

Krea AI

Eine Plattform für kreative KI-Tools, die insbesondere auf Bildgenerierung und -bearbeitung spezialisiert ist. Sie bietet intuitive Schnittstellen für die Erstellung von AI-generierten visuellen Inhalten.

LLaMA (Meta AI)

Eine Familie großer Sprachmodelle von Meta (Facebook), die als Alternative zu kommerziellen Modellen für Forschungszwecke entwickelt wurden. Die erste Version wurde mit 65 Milliarden Parametern trainiert.

LLaMA 2

Die zweite Generation von Metas LLaMA-Modellen, die unter einer offeneren Lizenz veröffentlicht wurde und für kommerzielle Nutzung freigegeben ist. Sie umfasst Modelle mit 7 bis 70 Milliarden Parametern.

LLaMA 3

Die dritte Generation der LLaMA-Modelle von Meta, mit verbesserten Fähigkeiten in Mehrsprachigkeit, Reasoning und Instruktionsbefolgung. Bietet weitere Verbesserungen gegenüber LLaMA 2.

Leonardo AI

Eine Plattform zur Erstellung von KI-generierten Bildern mit Fokus auf Spiele und kreative Industrien. Sie bietet anpassbare Modelle und Tools für konsistente Charaktere und Umgebungen.

Lexica

Eine Suchmaschine und Galerie für KI-generierte Bilder, die hauptsächlich mit Stable Diffusion erzeugt wurden. Nutzer können nach Bildern suchen und die verwendeten Prompts einsehen.

LLAMAIndex

Ein Framework (früher GPT-Index genannt), das große Sprachmodelle mit externen Datenquellen verbindet. Es ermöglicht effizientes Abfragen großer Datenmengen über natürliche Sprache.

LoRA (Low-Rank Adaptation)

Eine effiziente Methode zum Feintuning großer KI-Modelle, die nur wenige Parameter anpasst. Dies ermöglicht die Spezialisierung von Modellen mit geringerem Rechenaufwand und weniger Speicherbedarf.

Mistral AI

Ein französisches KI-Startup, das leistungsstarke und effiziente Sprachmodelle entwickelt. Ihre Modelle bieten gute Leistung bei geringerer Größe und sind teilweise open-source verfügbar.

Mixtral

Ein Mixture-of-Experts (MoE) Sprachmodell von Mistral AI, das die Effizienz durch spezialisierte Teilnetze verbessert. Es bietet Leistung vergleichbar mit größeren Modellen bei reduziertem Rechenaufwand.

Midjourney

Ein KI-Tool zur Bildgenerierung aus Textbeschreibungen, bekannt für seinen künstlerischen Stil. Es wird über Discord genutzt und erzeugt besonders ästhetisch ansprechende Bilder mit hohem künstlerischem Wert.

MusicGen

Ein KI-Modell von Meta AI zur Generierung von Musik aus Textbeschreibungen. Es kann verschiedene Genres, Stimmungen und Instrumente basierend auf textuellen Anweisungen kombinieren.

Neural Filters (Photoshop)

KI-gestützte Werkzeuge in Adobe Photoshop, die komplexe Bildbearbeitungen wie Gesichtsveränderungen, Stilübertragungen oder Entfernung von Unreinheiten mit wenigen Klicks ermöglichen.

OpenAI API

Eine Programmierschnittstelle, die Zugang zu OpenAIs KI-Modellen wie GPT-4, DALL-E und Whisper bietet. Entwickler können diese Modelle in ihre eigenen Anwendungen integrieren.

Perplexity AI

Eine KI-gestützte Suchmaschine, die natürlichsprachliche Fragen beantwortet und dabei Informationen aus verschiedenen Quellen zusammenfasst und zitiert.

Pika Labs

Ein Startup, das sich auf KI-gestützte Videogenerierung spezialisiert hat. Ihre Tools können aus Textbeschreibungen kurze Videos erstellen oder Bilder in animierte Sequenzen umwandeln.

Playground AI

Eine benutzerfreundliche Plattform für KI-Bildgenerierung, die verschiedene Modelle unterstützt und einfache Werkzeuge zur Anpassung und Bearbeitung von KI-generierten Bildern bietet.

Runway ML

Eine kreative KI-Plattform mit Schwerpunkt auf Videobearbeitung und -generierung. Sie bietet Tools für Videomanipulation, Stilübertragung und generative Video-Inhalte.

Sora (OpenAI Video AI)

Ein Text-zu-Video-Modell von OpenAI, das aus Textbeschreibungen fotorealistische Videos generieren kann. Es kann komplexe Szenen mit mehreren Charakteren, spezifischen Bewegungen und detaillierten Hintergründen erstellen.

Stable Diffusion

Ein Open-Source-Bildgenerierungsmodell, das mit Diffusionstechniken arbeitet und auf Consumer-Hardware laufen kann. Es hat eine große Community-Unterstützung und zahlreiche Anpassungsmöglichkeiten.

Stable Video Diffusion

Eine Erweiterung von Stable Diffusion zur Generierung von Videos. Es kann aus einem Einzelbild kurze Videosequenzen erzeugen oder Textbeschreibungen in animierte Szenen umwandeln.

StyleGAN

Eine Architektur für generative neuronale Netzwerke, die besonders für die Erzeugung fotorealistischer Gesichter bekannt ist. Sie erlaubt die kontrollierte Manipulation verschiedener Bildattribute wie Alter oder Gesichtsausdruck.

Synthesia

Eine Plattform zur KI-gestützten Videoproduktion, die es ermöglicht, realistische Videos mit virtuellen Präsentatoren zu erstellen. Der Text wird in eine natürlich wirkende Videoansprache umgewandelt.

Whisper (OpenAI Speech-to-Text)

Ein von OpenAI entwickeltes Spracherkennungssystem, das Audio in Text transkribieren und übersetzen kann. Es funktioniert in vielen Sprachen und ist auch bei schwierigen Audiobedingungen robust.

YOLO (You Only Look Once)

Ein Echtzeit-Objekterkennungsalgorithmus, der in einem einzigen Durchgang Objekte in Bildern identifizieren und lokalisieren kann. Er ist besonders für seine Geschwindigkeit bekannt und eignet sich für Videoanwendungen.

AI Art Generator

Tools, die KI-Technologien nutzen, um auf Basis von Textbeschreibungen oder anderen Eingaben Kunstwerke zu erzeugen. Sie kombinieren verschiedene Kunststile und -techniken, um einzigartige visuelle Inhalte zu schaffen.

AI Cartoonizer

Software, die Fotos in Cartoons oder Comic-Stil umwandelt, indem sie Konturen betont und Farben vereinfacht. Dies erfolgt durch spezielle neuronale Netzwerke für Stilübertragung.

AI Image Enhancer

Tools, die niedrigqualitative Bilder verbessern, indem sie Rauschen reduzieren, Schärfe erhöhen und Details wiederherstellen. Sie nutzen Deep-Learning-Techniken, um die visuelle Qualität zu optimieren.

AI Image Upscaler

Software, die die Auflösung von Bildern erhöht, ohne dass diese unscharf oder pixelig werden. Durch KI-gestützte Algorithmen werden dabei fehlende Details intelligent ergänzt.

AI Manga Generator

Tools zur automatischen Erstellung von Manga-Illustrationen und Comics im japanischen Stil, basierend auf Textbeschreibungen oder Skizzen.

AI Portrait Generator

KI-Systeme, die realistische oder stilisierte Porträts erzeugen können, oft basierend auf Textbeschreibungen oder als Transformation existierender Fotos in verschiedene Kunststile.

Background Removal AI

KI-gestützte Werkzeuge, die automatisch den Hintergrund von Bildern entfernen und Vordergrundobjekte isolieren. Sie nutzen Segmentierungsalgorithmen, um Personen oder Objekte präzise vom Hintergrund zu trennen.

Deep Image Super-Resolution

Techniken zur Erhöhung der Bildauflösung mithilfe von Deep Learning. Diese Methoden erzeugen hochauflösende Bilder aus niedrigauflösenden Eingaben mit bemerkenswerten Detailverbesserungen.

Image Colorization AI

KI-Systeme, die Schwarz-Weiß-Bilder automatisch einfärben können. Sie analysieren den Bildinhalt und wenden plausible Farben basierend auf gelernten Mustern an.

Image Style Transfer

Techniken, die den visuellen Stil eines Bildes (z.B. eines Gemäldes) auf ein anderes Bild übertragen. Die KI behält den Inhalt des Zielbildes bei, während sie die ästhetischen Merkmale der Stilvorlage anwendet.

Outpainting AI

KI-Technologie, die Bilder über ihre ursprünglichen Grenzen hinaus erweitert, indem sie den fehlenden Kontext außerhalb des Rahmens kreativ ergänzt. Nützlich für die Erweiterung von Kompositionen oder Änderung des Bildformats.

AI Motion Capture

Systeme, die menschliche Bewegungen aus Video- oder Sensordaten erfassen und in digitale Modelle übertragen, ohne dass spezielle Marker oder Anzüge erforderlich sind.

AI Slow Motion

Technologie, die zwischenliegende Frames in Videos künstlich erzeugt, um flüssige Zeitlupeneffekte zu schaffen, selbst wenn das Ausgangsmaterial mit niedriger Bildrate aufgenommen wurde.

AI Video Enhancement

Tools zur automatischen Verbesserung von Videoqualität, einschließlich Auflösungserhöhung, Rauschunterdrückung, Farbkorrektur und Stabilisierung mithilfe von Deep-Learning-Algorithmen.

AI Video Face Swap

Technologie, die Gesichter in Videos automatisch durch andere Gesichter ersetzt, wobei Ausdrücke, Beleuchtung und Perspektive beibehalten werden. Eine Form von Deepfake-Technologie.

Deepfake Video Generator

Software zur Erstellung von täuschend echten, aber künstlichen Videos, bei denen das Gesicht einer Person durch das einer anderen ersetzt wird, während Mimik und Lippenbewegungen beibehalten werden.

Neural Rendering

Techniken, die neuronale Netzwerke mit traditioneller Computergrafik kombinieren, um fotorealistische Bilder und Videos zu erzeugen oder zu manipulieren.

AI Copywriting

Tools, die automatisch Marketingtexte, Blog-Artikel, Produktbeschreibungen und andere Inhalte erstellen. Sie können bestimmte Tonalitäten, Zielgruppen und Marketingziele berücksichtigen.

AI Grammar Check

KI-gestützte Werkzeuge zur Erkennung und Korrektur von Grammatik-, Rechtschreib-, Interpunktions- und Stilfehlern in Texten. Sie gehen über einfache regelbasierte Prüfungen hinaus und verstehen kontextuelle Nuancen.

AI Summarization

Algorithmen, die lange Texte automatisch zusammenfassen und die wichtigsten Informationen extrahieren. Sie können die Zusammenfassungslänge anpassen und verschiedene Zusammenfassungsstile bieten.

AI Voice Cloning

Technologie zur Erstellung einer synthetischen Version einer menschlichen Stimme, die dann beliebige Texte in der charakteristischen Sprechweise dieser Person vorlesen kann.

Chatbot KI

Konversationssysteme, die durch natürliche Sprachverarbeitung mit Menschen interagieren können. Sie reichen von einfachen regelbasierten bis hin zu komplexen, auf großen Sprachmodellen basierenden Systemen.

AI Audio Enhancement

Technologien zur Verbesserung von Audioqualität, einschließlich Rauschunterdrückung, Klangoptimierung und Restaurierung beschädigter Aufnahmen mithilfe von KI-Algorithmen.

AI Music Composition

Systeme, die eigenständig Musikstücke komponieren können, basierend auf gelernten Mustern aus bestehenden Musikstücken oder auf spezifischen Anweisungen zu Stil, Stimmung und Struktur.

AI Noise Cancellation

Algorithmen zur Erkennung und Entfernung von Hintergrundgeräuschen aus Audioaufnahmen, wodurch Sprache klarer wird und die Verständlichkeit verbessert wird.

Text-to-Music AI

KI-Systeme, die aus Textbeschreibungen Musikstücke generieren können. Nutzer können Stil, Stimmung, Tempo und Instrumentierung textuell beschreiben, um passende Musik zu erzeugen.

AI Character Generation

Tools zur Erstellung virtueller Charaktere für Spiele, Filme oder andere Medien, einschließlich Aussehen, Persönlichkeit und manchmal auch Animation oder Verhalten.

Procedural Content Generation

Algorithmen zur automatischen Erstellung von Spielinhalten wie Landschaften, Levels, Quests oder Gegenstände. KI-basierte Systeme können dabei komplexere und adaptivere Inhalte erzeugen.

AI Customer Support

KI-Systeme für Kundendienst-Anwendungen, die Kundenanfragen automatisch beantworten, Probleme kategorisieren und an menschliche Mitarbeiter eskalieren können, wenn nötig.

AI Fraud Detection

Systeme, die ungewöhnliche Muster in Finanztransaktionen oder Benutzerverhalten erkennen, um Betrug zu identifizieren. Sie lernen kontinuierlich neue Betrugsmuster kennen und passen sich an.

AI Meeting Transcription

Tools, die Gespräche in Echtzeit in Text umwandeln, Sprecher unterscheiden und manchmal sogar Zusammenfassungen oder Aktionspunkte aus Besprechungen extrahieren können.

Nach oben scrollen