Künstliche Intelligenz oder KI ist ein Begriff, mit dem man heutzutage häufig um sich wirft. Ob auf einem Android-Smartphone, einem Streaming-Dienst, der Ihnen den nächsten Film empfiehlt, oder einer Musikplattform, die eine Playlist zusammenstellt – KI scheint überall zu sein. Aber wie hat sich die Definition von KI entwickelt und was bedeuten einige der technischeren KI-Begriffe wirklich? Im Folgenden gehen wir auf die wichtigsten Begriffe und Konzepte ein, die moderne KI definieren, und helfen Ihnen, sich in diesem komplexen und sich schnell entwickelnden Bereich zurechtzufinden.
Was ist KI wirklich?
In der Vergangenheit bezog sich KI auf die Intelligenz auf menschlichem Niveau, die künstlich durch Maschinen erreicht wird. Der Begriff wurde jedoch im Laufe der Jahre verwässert und wird heute häufig als allgemeiner Marketingbegriff verwendet. Heute wird alles, was Merkmale von Intelligenz aufweist, von E-Commerce-Empfehlungen bis hin zu Spracherkennungssystemen, als KI bezeichnet.
Um die Nuancen besser zu verstehen, müssen wir spezifische KI-Begriffe untersuchen, die zwischen Marketing-Hype und technologischem Fortschritt unterscheiden.
Maschinelles Lernen (ML)
Maschinelles Lernen ist eine Unterkategorie der künstlichen Intelligenz, bei der Systeme aus Daten und Erfahrungen lernen, Entscheidungen zu treffen oder Maßnahmen zu ergreifen. Wenn Sie beispielsweise einen Algorithmus mit Tausenden von Katzenbildern füttern, lernt er, eine Katze zu identifizieren. Sie könnten dann Bilder von Katzen, Hunden und anderen Tieren bereitstellen. Das System sollte dann in der Lage sein, die Bilder von Katzen anhand dessen auszuwählen, was es „gelernt“ hat.
Dieser Lernprozess umfasst zwei Hauptphasen: Training und Inferenz.
Ausbildung
Die Trainingsphase ist eine langwierige Phase des maschinellen Lernens, in der dem System große Datenmengen zum Lernen zugeführt werden – zum Beispiel Bilder von Katzen. Die verwendeten Daten können jedoch bestimmte Objekte wie Blumen oder größere Stichproben wie das Internet als Ganzes sein. Das Training moderner KI-Systeme wie ChatGPT kann Millionen kosten und enorme Rechenressourcen erfordern.
Schlussfolgerung
Calvin Wankhede / Android Authority
Nach dem Training wendet das System sein erlerntes Wissen auf neue Daten an. In dieser Phase kommt der Endbenutzer ins Spiel und ermöglicht uns die Interaktion mit KI-Anwendungen. Da das System jetzt beispielsweise weiß, was eine Katze ist, können wir ihm ein Bild geben und es identifiziert sie. Fragen Sie Google Gemini oder Microsoft Copilot nach der Hauptstadt Englands und sie werden Ihnen eine Antwort geben. In dieser Phase greift das System auf seine bereits erworbenen Kenntnisse zurück. Diese Phase erfordert deutlich weniger Rechenleistung.
Künstliche allgemeine Intelligenz (AGI)
AGI bezieht sich auf Maschinen mit menschlicher Intelligenz, die in der Lage sind, Entscheidungen zu treffen, zu planen und die Welt in einem breiteren Kontext zu verstehen. Im Gegensatz zu aktuellen KI-Systemen würde AGI über ein tieferes Verständnis und Bewusstsein verfügen, ähnlich dem, was wir in der Science-Fiction sehen. Obwohl wir noch weit davon entfernt sind, AGI zu erreichen, da das Knacken dieses Codes viele technische, philosophische und moralische Fragen erfordern würde, ist dies ein bedeutendes Forschungsgebiet.
Im obigen Video behandeln wir die Auswirkungen von AGI, einschließlich der Begriffe „schwache“ und „starke“ künstliche Intelligenz. Es ist ein weitreichendes Thema und es lohnt sich, sich damit zu befassen.
Generative KI
Andy Walker / Android Authority
Traditionell war KI hervorragend für die Klassifizierung und Erkennung geeignet, aber generative KI geht über diese Ideen hinaus und erstellt neue Inhalte wie Texte, Bilder und Musik. Dieser revolutionäre Fortschritt hat neue Möglichkeiten in der KI eröffnet und ermöglicht es Systemen, kreative Ergebnisse auf der Grundlage von Eingabedaten zu generieren. Dies ist auch die Seite der KI, die den Alltagsnutzern die greifbarsten Vorteile bietet, insbesondere wenn Sie schon einmal ChatGPT zum Verfassen einer E-Mail oder Midjourney zum Generieren eines Katzenbilds verwendet haben.
Neuronale Netze
Neuronale Netze sind die grundlegenden Bausteine und das Rückgrat moderner KI. Sie gibt es schon seit Jahrzehnten und sie sind dem menschlichen Gehirn nachempfunden. Sie bestehen aus miteinander verbundenen Neuronen, die Daten durch verschiedene Schichten verarbeiten und schließlich eine Ausgabe erzeugen. Beim Training eines neuronalen Netzes müssen die Verbindungen zwischen den Neuronen angepasst werden, um die Genauigkeit zu verbessern.
Transformatornetze
Calvin Wankhede / Android Authority
Ein spezieller Typ neuronaler Netzwerke, Transformer-Netzwerke, hat die Entwicklung großer Sprachmodelle (LLMs) wie ChatGPT ermöglicht. Diese Netzwerke zeichnen sich durch ein hervorragendes Verständnis des Kontexts und der Beziehungen innerhalb von Daten aus und sind daher ideal für Aufgaben der Sprachverarbeitung.
Große Sprachmodelle (LLMs)
Wenn neuronale Netzwerke, Transformatoren und Training für ein sehr großes neuronales Netzwerk kombiniert werden, entstehen große Sprachmodelle.
LLMs werden anhand riesiger Mengen von Textdaten trainiert, sodass sie menschenähnliche Antworten generieren können. Denken Sie an ChatGPT, Claude, LLaMA und Grok. Sie funktionieren, indem sie das nächste Wort in einer Sequenz vorhersagen und kohärente und kontextbezogen relevante Ergebnisse erzeugen. Diese Vorhersagekraft kann jedoch zu Problemen wie Halluzinationen führen, bei denen das Modell plausible, aber falsche Informationen generiert. Dies behandeln wir im nächsten Abschnitt.
Halluzinationen
C. Scott Brown / Android Authority
Halluzinationen treten auf, wenn KI aufgrund ihrer Abhängigkeit von prädiktiver Modellierung falsche Informationen generiert. Dies stellt eine erhebliche Herausforderung für LLMs dar, da sie überzeugende, aber falsche Ergebnisse produzieren können.
Ein klassisches Beispiel für eine Halluzination war die Antwort auf das Google-Suchergebnis „Wie verhindern Sie, dass der Käse von Ihrer Pizza rutscht?“, das die KI-gestützte Antwort enthielt: „Also, Sie sollten Sekundenkleber verwenden. Kleben Sie ihn auf Ihre Pizza.“ Der LLM entnahm die Antwort einem Reddit-Beitrag und glaubte, sie sei richtig.
Parameter und Modellgröße
Die Effektivität von KI-Modellen wird häufig anhand ihrer Gesamtparameter gemessen, die die Verbindungen innerhalb des neuronalen Netzwerks darstellen. Größere Modelle mit mehr Parametern erzielen im Allgemeinen eine bessere Leistung, benötigen jedoch mehr Ressourcen. Kleinere Modelle sind theoretisch weniger genau, können jedoch auf sparsamerer Hardware ausgeführt werden.
Beispielsweise verfügt das riesige Cloud-basierte Modell LLaMA 3.1 über 405 Milliarden Parameter, während Modelle, die nativ auf Smartphones laufen, nur aus wenigen Milliarden Parametern bestehen.
Diffusionsmodelle
Rita El Khoury / Android Authority
Diffusionsmodelle werden zur Bildgenerierung verwendet und kehren den Prozess der Hinzufügung von Rauschen zu Bildern während des Trainings um. Dadurch können sie auf Grundlage erlernter Muster neue Bilder aus zufälligem Rauschen erstellen.
Retrieval Augmented Generation (RAG)
RAG kombiniert generative KI mit externen Datenquellen, um genaue und kontextbezogen relevante Ergebnisse zu erzielen. Durch das Abrufen zusätzlicher Daten können diese Modelle ihre Ergebnisse verbessern und sie zuverlässiger und nützlicher machen.
Das Verständnis von KI-Begriffen und -Konzepten kann besonders schwierig sein. Aber während sich das Feld weiterentwickelt, hilft es Ihnen, auf dem Laufenden zu bleiben, um sich in der spannenden und manchmal herausfordernden Welt der künstlichen Intelligenz zurechtzufinden. Egal, ob Sie ein Technikbegeisterter oder ein Fachmann auf diesem Gebiet sind, dieser Leitfaden bietet eine solide Grundlage für die Erkundung der Zukunft der KI.
Kommentare