Top 10 AI- und Machine-Learning-Trends
Hier finden Sie einen kurzer Überblick über aktuelle Trends bei AI:
1. Multimodal AI
Multimodale AI kann zum Beispiel nicht nur Texteingaben, sondern auch Bilder und Ton verarbeiten. Als Beispiel nannte OpenAI, dass ChatGPT basierend auf dem Foto des Innenraums eines Kühlschranks, die Zutaten erkennen und ein Rezept vorschlagen kann. Weitere Beispiele sind:
- Medizinische Diagnose mittels Röntgenbildes kombiniert mit der Patientenvorgeschichte
- Das Erstellen von Zeichnungen anhand einer Textbeschreibung und einer bildlichen Vorlage.
Darüber hinaus könnte die Einführung multimodaler Fähigkeiten die Lernfähigkeit von AI verbessern. Mark Chen, Head of frontiers research bei OpenAI, sagte, je besser die Modelle bei der Modellierung von Sprache werden, desto eher werden diese an die Grenzen dessen stoßen, was sie aus Sprache lernen können. OpenAI wolle die AI-Modelle auch mit rohen Abbildungen der Welt trainieren, einer Kombination aus Bild und Ton, damit AI ihre eigenen Schlüsse aus zB Video- oder Audiodaten ziehen können.
2. Agentic AI
Agentic AI markiert einen bedeutenden Wandel von reaktiver zu proaktiver AI. AI-Agenten sind fortschrittliche Systeme, die Autonomie, Proaktivität und die Fähigkeit zum unabhängigen Handeln aufweisen. Im Gegensatz zu traditionellen AI-Systemen, die hauptsächlich auf Benutzereingaben reagieren, sind AI-Agenten darauf ausgelegt, ihre Umgebung zu verstehen, Ziele zu setzen, von selbst zu reagieren und diese Ziele ohne direkte menschliche Eingriffe zu erreichen.
Zum Beispiel könnte in der Umweltüberwachung ein AI-Agent darauf trainiert werden, Daten zu sammeln, Muster zu analysieren und vorbeugende Maßnahmen auf zB frühe Anzeichen eines Waldbrands einzuleiten. Ebenso könnte ein AI-Agent ein Investmentportfolio aktiv unter Verwendung vorgegebener Strategien verwalten.
3. Open-Source-AI
Der Einsatz von Open-Source-Modellen ermöglicht es Entwicklern, auf der Arbeit anderer aufzubauen, wodurch Kosten gesenkt und der Zugang zu AI erweitert wird. Open-Source-KI ist in der Regel öffentlich und kostenlos zugänglich, sodass Organisationen und Forscher zum bestehenden Code beitragen und darauf aufbauen können. Schon im Jahr 2023 gehörten generative AI-Projekte auf der Code-Hosting-Plattform GitHub zu den 10 beliebtesten Projekten, wobei Projekte wie Stable Diffusion und AutoGPT Tausende von neuen Beitragenden anzogen.
Open-Source Modelle waren begrenzt und ihre Leistung blieb oft hinter proprietären Optionen wie ChatGPT zurück. Im Laufe der Zeit erweiterte sich das Angebot jedoch erheblich und umfasste leistungsstarke Open-Source-Konkurrenten wie Metas Llama 2 und Mistral AIs Mixtral-Modelle. Dies könnte die Dynamik der AI-Landschaft nachhaltig verschieben, indem es kleineren, weniger gut ausgestatteten Unternehmen Zugang zu fortschrittlichen AI-Modellen und -Tools ermöglicht, die zuvor außer Reichweite waren.
Für das Training eines Large Language Modells sind aber weiterhin riesige Rechencenter nötig: Elon Musks AI-Unternehmen xAI hat einen Supercomputer namens Colossus fertiggestellt, der 100.000 Einheiten von Nvidias H100-Prozessoren nutzt, um den AI-Chatbot Grok zu trainieren. Meta Platforms von Mark Zuckerberg plant bis Ende des Jahres einen Supercomputer mit 350.000 Stück H100.
4. RAG – Retrieval Augmented Generation
Halluzinationen sind eine Hürde für Unternehmensanwendungen, bei denen aktuelles Faktenwissen entscheidend ist. Mit Retrieval Augmented Generation (RAG) soll sichergestellt werden, dass die Antwort der AI nur auf gesichertem Wissen beruht und Halluzinationen reduziert oder vermieden werden.
Mit RAG werden für die User-Anfrage zuerst lösungsrelevante Informationen gesammelt, bevor die User-Anfrage mit diesen externen Informationen an die AI übermittelt wird. Die AI bearbeitet die Anfrage dann auf Basis der mitgelieferten Information. Damit lässt sich kontrollieren, dass die Antwort der AI nur auf einer passenden Grundlage basiert, die präzise zur gewünschten Antwort passt.
Da das relevante Wissen nicht direkt im Sprachmodell gespeichert ist, wird auch die Modellgröße reduziert und der Trainingsaufwand reduziert, was die Geschwindigkeit erhöht und die Kosten senkt.
5. Angepasste unternehmenseigene generative AI-Modelle
Während massive, universelle Tools wie Midjourney und ChatGPT bei Verbrauchern, am meisten Aufmerksamkeit erregten, könnten für Unternehmensanwendungen kleinere, spezialisierte Modelle den größten Nutzen aufweisen. Unternehmen passen bestehende AI-Modelle an, indem sie beispielsweise die Architektur anpassen oder auf domänenspezifischen Datensätzen feinabstimmen.
Die Erstellung eines neuen Modells von Grund auf ist ein ressourcenintensives Unterfangen, das für viele Organisationen außer Reichweite sein wird. Auch die Nutzung bestehender Modelle via API-Aufrufe kann teuer und langsam sein. Um eine leistbare, maßgeschneiderte generative AI zu entwickeln, modifizieren die meisten Unternehmen bestehende AI-Modelle, oder reduzieren API-Aufrufe – zum Beispiel durch Feinabstimmung auf einen fachspezifischen Datensatz.
Der Hauptvorteil maßgeschneiderter generativer AI-Modelle ist ihre Fähigkeit, sich an Nischenmärkte und Benutzerbedürfnisse anzupassen. Maßgeschneiderte generative AI-Tools können für nahezu alle Benutzerbedürfnisse oder Nischenmärkte erstellt werden. Dies ist besonders relevant für Sektoren mit hochspezialisiertem Wissen, wie Gesundheitswesen, Finanzen und Recht.
6. Bedarf an AI- und Machine-Learning-Talenten
Der wachsende Bedarf an AI- und Machine-Learning-Expert:innen wird sich 2024 und darüber hinaus fortsetzen. Insbesondere besteht ein wachsender Bedarf an Fachleuten, die die Lücke zwischen Theorie und Praxis überbrücken können, was die Fähigkeit erfordert, AI-Systeme in realen Umgebungen einzusetzen, zu überwachen und zu warten.
Bei AI zeigt sich die Wichtigkeit von Diversität, von den technischen Teams, die Modelle aufbauen, bis hin zum Vorstand. Bei öffentlichen AI-Modellen existiert eine Menge an Vorurteilen und Diskriminierungsmustern in den Trainingsdaten. Hier braucht es diverse Teams, die die Ergebnisse in Frage stellen können.
7. Shadow AI
Es zeigt sich, dass Angestellte aller Art an generativer AI interessiert sind, viele Firmen, aber nur sehr eingeschränkt AI Werkzeuge im Arbeitsalltag anbieten. Das führt zum Risiko, dass Angestellte AI ohne ausdrückliche Genehmigung oder Aufsicht der IT-Abteilung nutzen. Dieser Trend nimmt zu, da AI leichter zugänglich wird.
Die Gefahr ist, dass ein Benutzer Betriebsgeheimnisse in ein öffentlich zugängliches LLM eingibt, und dabei sensible Informationen gegenüber Dritten preisgibt. Organisationen müssen Schritte unternehmen, um ungewollte AI-Nutzung durch Richtlinien einzudämmen, aber gleichzeitig Innovation unterstützen und genehmigte Tools bereitstellen.
8. Realitätscheck für generative AI
Während Firmen vom anfänglichen Experimentieren mit generative AI zur tatsächlichen Einführung und Integration übergehen, werden sie 2024 wahrscheinlich einen Realitätscheck erleben.
Die Komplexität der Umsetzung und Skalierung eines AI-Produktes wird vor allem von mittleren und kleineren AI-Anbietern oft unterschätzt, und Aufgaben wie die Sicherstellung der Datenqualität, das Training von Modellen und die Wartung von AI-Systemen in der Produktion können sich als schwieriger erweisen als zunächst erwartet. In dieser als „Tal der Enttäuschung“ bezeichneten Phase des “Gartner Hype Cycles” werden unrealistische Erwartungen widerlegt und es bildet sich ein nuancierteres Verständnis dafür, wozu AI fähig ist und wozu nicht.
9. Verstärkte Aufmerksamkeit für AI-Ethik und Sicherheitsrisiken
Die Zunahme von Deepfakes und AI-generierten manipulativen Inhalten weckt Befürchtungen vor Desinformation, Betrug und Identitätsdiebstahl.
Kürzlich wurden mehrere Openai-Zugänge der iranischen Geheimdienstgruppe “Storm-2035” gesperrt. Sie erzeugten mit Chat-GPT manipulative Socialmedia-Inhalte, um die US-Präsidentschaftswahl zu beeinflussen. Dies unterstreicht die zunehmende Bedeutung von Transparenz und Kontrolle, um Trainingsdaten und Ausgaben sorgfältig auf unerwünschte Inhalte zu prüfen.
10. Aufkommende AI-Regulierung
2024 zeichnet sich angesichts dieser ethischen und sicherheitstechnischen Bedenken als entscheidendes Jahr für die AI-Regulierung ab, da sich Gesetze, Richtlinien und Branchenrahmen weltweit rasch weiterentwickeln. Die EU ist mit dem AI Act als globaler Vorreiter bei AI-Regulierung aufgetreten und hat die Standards für die Nutzung und Entwicklung von AI weltweit beeinflusst. Der AI Act verbietet bestimmte Verwendungen von AI, beinhaltet Verpflichtungen für Entwickler von Hochrisiko-AI-Systemen sowie Transparenzgebote für Unternehmen, die generative AI einsetzen, wobei die Nichteinhaltung zu empfindlichen Geldstrafen führen kann.
Aufgrund des Rechts auf Berichtigung und Löschung bei öffentlichen Sprachmodellen könnten die DSGVO einen großen Einfluss ausüben. Wie man bei einem schwer nachvollziehbaren Large Language Model das Recht auf Vergessen technisch und juristisch verwirklichen will, bleibt bis dato eine spannende Frage.
Egal wie sich AI weiterentwickelt – als Insider bleiben Sie am Laufenden!