BitcoinWorld
KI-Begriffe, denen alle zustimmen: Ein praktisches Glossar
Künstliche Intelligenz verändert ganze Branchen, hat aber auch ein dichtes neues Vokabular hervorgebracht, mit dem selbst erfahrene Technologen kaum Schritt halten können. Begriffe wie LLM, RAG, RLHF und Diffusion tauchen ständig in Schlagzeilen, Produktankündigungen und Vorstandsdiskussionen auf – dennoch bleiben ihre genauen Bedeutungen oft unklar. Dieses Glossar, das von unserer Redaktion kuratiert und regelmäßig aktualisiert wird, soll klare, sachliche Definitionen der wichtigsten KI-Begriffe liefern. Es ist als lebendiges Nachschlagewerk konzipiert, das sich gemeinsam mit der beschriebenen Technologie weiterentwickelt.
AGI (Artificial General Intelligence) bleibt einer der am meisten diskutierten Begriffe in diesem Bereich. Obwohl die Definitionen variieren, bezieht er sich im Allgemeinen auf KI-Systeme, die menschliche Fähigkeiten bei einem breiten Aufgabenspektrum erreichen oder übertreffen. Die Satzung von OpenAI beschreibt es als „hochautonome Systeme, die Menschen bei den meisten wirtschaftlich wertvollen Tätigkeiten übertreffen", während Google DeepMind es als „KI, die bei den meisten kognitiven Aufgaben mindestens so leistungsfähig ist wie Menschen" definiert. Das Fehlen einer einzigen, allgemein anerkannten Definition unterstreicht, wie spekulativ und visionär das Konzept bleibt – selbst unter führenden Forschern.
Inferenz ist der Prozess, bei dem ein trainiertes KI-Modell ausgeführt wird, um Vorhersagen oder Ausgaben zu generieren. Sie unterscheidet sich vom Training, der rechenintensiven Phase, in der ein Modell Muster aus Daten erlernt. Inferenz kann auf einer breiten Palette von Hardware stattfinden – von Smartphone-Prozessoren bis hin zu cloudbasierten GPU-Clustern – doch Geschwindigkeit und Kosten der Inferenz variieren je nach Modellgröße und Infrastruktur erheblich.
Token sind die grundlegenden Kommunikationseinheiten zwischen Menschen und großen Sprachmodellen (LLMs). Sie repräsentieren diskrete Textabschnitte – oft Teile von Wörtern –, die das Modell verarbeitet. Tokenisierung überbrückt die Lücke zwischen natürlicher Sprache und den numerischen Operationen, die KI-Systeme durchführen. In Unternehmensumgebungen bestimmt die Token-Anzahl auch die Kosten, da die meisten KI-Unternehmen auf Token-Basis abrechnen.
Training umfasst die Zuführung großer Datenmengen an ein maschinelles Lernmodell, damit es Muster erkennen und seine Ausgaben verbessern kann. Dieser Prozess ist kostspielig und ressourcenintensiv und erfordert spezialisierte Hardware und große Datensätze. Fine-Tuning nimmt ein vortrainiertes Modell und trainiert es weiter auf einem engeren, aufgabenspezifischen Datensatz, sodass Unternehmen allgemeine Modelle für spezialisierte Anwendungen anpassen können, ohne von vorne zu beginnen.
Bestärkendes Lernen (Reinforcement Learning) ist ein Trainingsparadigma, bei dem ein Modell durch Versuch und Irrtum lernt und Belohnungen für korrekte Aktionen erhält. Dieser Ansatz hat sich als besonders effektiv zur Verbesserung des Schlussfolgerns in LLMs erwiesen, insbesondere durch Techniken wie Reinforcement Learning from Human Feedback (RLHF), das Modellausgaben mit menschlichen Präferenzen für Hilfsbereitschaft und Sicherheit in Einklang bringt.
Destillation ist eine Technik, bei der ein kleineres „Schüler"-Modell trainiert wird, das Verhalten eines größeren „Lehrer"-Modells nachzuahmen. Dies kann effizientere, schnellere Modelle mit minimalem Leistungsverlust erzeugen. OpenAI hat wahrscheinlich Destillation verwendet, um GPT-4 Turbo zu erstellen, eine schnellere Version von GPT-4. Die Verwendung von Destillation bei einem Konkurrenzmodell verstößt jedoch in der Regel gegen die Nutzungsbedingungen.
Neuronale Netze sind die mehrschichtigen algorithmischen Strukturen, die dem Deep Learning zugrunde liegen. Inspiriert von den vernetzten Pfaden des menschlichen Gehirns sind diese Netzwerke mit dem Aufkommen moderner GPUs, die Tausende von Berechnungen parallel durchführen können, erheblich leistungsfähiger geworden. Parallelisierung – das gleichzeitige Durchführen vieler Berechnungen – ist grundlegend für Training und Inferenz und ein wesentlicher Grund, warum GPUs zur Hardware-Grundlage der KI-Branche wurden.
Compute ist ein Kurzausdruck für die Rechenleistung, die zum Trainieren und Ausführen von KI-Modellen erforderlich ist. Er umfasst die Hardware – GPUs, CPUs, TPUs – und die Infrastruktur, die die Branche antreibt. Der Begriff taucht häufig in Diskussionen über Kosten, Skalierbarkeit und die Umweltauswirkungen von KI auf.
Memory Cache (insbesondere KV-Caching in Transformer-Modellen) ist eine Optimierungstechnik, die die Inferenzeffizienz steigert, indem zuvor berechnete Ergebnisse gespeichert werden und so die Notwendigkeit einer Neuberechnung für jede neue Abfrage reduziert wird. Dies beschleunigt die Antwortzeiten und senkt die Betriebskosten.
AI Agents repräsentieren einen Wandel von einfachen Chatbots hin zu autonomen Systemen, die mehrstufige Aufgaben im Namen eines Nutzers ausführen können, wie z. B. Reisebuchungen, Spesenabrechnung oder das Schreiben von Code. Coding Agents sind eine spezialisierte Untergruppe, die Code autonom schreiben, testen und debuggen kann und iterative Entwicklungsarbeiten mit minimalem menschlichen Aufwand bewältigt. Die Infrastruktur für Agents wird noch aufgebaut, und die Definitionen variieren in der Branche.
Diffusion ist die Technologie hinter vielen Bild-, Musik- und Textgenerierungsmodellen. Inspiriert von der Physik lernen Diffusionssysteme, einen Prozess der Rauschzufügung zu Daten umzukehren, sodass sie neue, realistische Ausgaben aus zufälligem Rauschen generieren können. GANs (Generative Adversarial Networks) verwenden einen anderen Ansatz und lassen zwei neuronale Netze gegeneinander antreten – einen Generator und einen Diskriminator –, um zunehmend realistische Ausgaben zu erzeugen, insbesondere bei Deepfakes und synthetischen Medien.
RAMageddon ist ein informeller Begriff, der den akuten Mangel an RAM-Chips beschreibt, der durch den unstillbaren Speicherbedarf der KI-Branche in Rechenzentren verursacht wird. Dieser Mangel hat die Preise in der Unterhaltungselektronik, bei Spielkonsolen und im Unternehmenscomputing in die Höhe getrieben, ohne dass eine unmittelbare Entspannung in Sicht ist.
Das Verständnis dieser Begriffe ist für Fachleute in Technologie, Wirtschaft und Politik nicht mehr optional. Da KI immer tiefer in Produkte, Dienstleistungen und Entscheidungsprozesse integriert wird, ermöglicht ein gemeinsames Vokabular klarere Kommunikation, fundiertere Debatten und bessere strategische Entscheidungen. Dieses Glossar wird regelmäßig aktualisiert, wenn sich das Fachgebiet weiterentwickelt, und spiegelt neue Entwicklungen und Verfeinerungen in der Art und Weise wider, wie die Branche ihre eigene Arbeit beschreibt.
F1: Was ist der Unterschied zwischen Training und Inferenz?
Training ist der Prozess, bei dem Daten in ein Modell eingespeist werden, damit es Muster erlernt – dieser Prozess ist rechenintensiv und kostspielig. Inferenz ist der Prozess, bei dem das trainierte Modell ausgeführt wird, um Ausgaben oder Vorhersagen zu generieren. Dies kann auf einer breiteren Palette von Hardware erfolgen und ist in der Regel schneller und günstiger.
F2: Was bedeutet „Open Source" im Kontext von KI-Modellen?
Open-Source-KI-Modelle, wie Metas Llama-Familie, haben ihren zugrunde liegenden Code und manchmal auch die Gewichte öffentlich zur Verfügung gestellt, um sie zu prüfen, zu modifizieren und wiederzuverwenden. Closed-Source-Modelle, wie OpenAIs GPT-Serie, halten den Code privat. Diese Unterscheidung ist zentral für Debatten über Transparenz, Sicherheit und Zugang in der KI-Entwicklung.
F3: Warum ist „Halluzination" ein Problem bei KI?
Halluzination bezeichnet das Generieren falscher oder erfundener Informationen durch KI-Modelle. Sie entsteht durch Lücken in den Trainingsdaten und kann zu irreführenden oder gefährlichen Ausgaben führen, insbesondere in Bereichen mit hohem Risiko wie dem Gesundheitswesen oder dem Finanzwesen. Dies weckt das Interesse an spezialisierten, domänenspezifischen KI-Modellen, die weniger anfällig für Wissenslücken sind.
Dieser Beitrag KI-Begriffe, denen alle zustimmen: Ein praktisches Glossar erschien zuerst auf BitcoinWorld.


