
Sehr geehrte Investierende und Freunde/Freundinnen von APUS Capital, das Börsenjahr ist noch jung. Als Anleger wurden wir aber psychologisch bereits durch zwei Ereignisse durchgeschüttelt. Das Eine war der Launch von DeepSeek, dem über Nacht aufgegangenen vermeintlich neuen Stern am KI-Himmel. Hier hatte es den Anschein, als ob die bisherigen Annahmen über Aufwand und Methodik zur Erstellung eines KI-Modells wie auch die damit verbundenen Investitionsannahmen über den Haufen geworfen würden. Das Zweite war die schnelle und heftige Umsetzung der Schutzzollpolitik der neuen amerikanischen Regierung. Wobei nicht nur China als traditioneller Gegner im Handelsstreit, sondern auch Mexiko und Kanada ins Fadenkreuz der „America-First-Ideologie“ geraten sind. Große Bedenken über die Auswirkungen dieser Politik auf das globale Wirtschaftswachstum als auch die Gewinne der börsennotierten Unternehmen führten vorübergehend zu spürbaren Korrekturen an den Finanzmärkten. In beiden Fällen kann man sich fragen: Handelt es sich hierbei um „Schwarze Schwäne“? Also unerwartete Ereignisse, die das bisherige Weltbild an den Börsen über Nacht auf den Kopf stellen und die weitere Entwicklung an den Finanzmärkten entscheidend verändern können. Ereignisse wie das Platzen der „Dotcom-Blase“ um die Jahrtausendwende, die Finanzkrise 2008/2009 oder die Corona-Pandemie? Auch wir haben uns natürlich diese Fragen gestellt und sind dabei zu dem Ergebnis gekommen: Ja, die Welt wird nicht mehr so sein, wie wir sie noch zum Jahresende 2024 gesehen haben. Es wäre aber völlig verfehlt, nun in Panik zu verfallen. Von „schwarzen Schwänen“ kann unseres Erachtens nicht die Rede sein. Wie so oft sind die Dinge komplex und bei weitem nicht so eindeutig negativ, wie sie auf den ersten Blick erscheinen. Aus beiden Ereignissen könnten sich gerade für europäische Anleger auch neue Chancen ergeben. Dies scheinen die Akteure an den Aktienmärkten inzwischen auch so zu sehen. Die meisten Indizes weisen nach vorübergehend deutlichen Korrekturen nur moderate Abschläge auf oder notieren sogar höher als vor den beiden Meldungen. In diesem Anschreiben betrachten wir zunächst den „DeepSeek-Schock“ etwas genauer, bevor wir nächsten Monat ausführlicher auf das Thema Zölle eingehen möchten (so zumindest der Plan und sofern die Tagesaktualität dies zulässt). Mit DeepSeek hat ein erst 2023 gegründetes Unternehmen aus Hong-Kong angeblich für den in dieser Branche lächerlich kleinen Betrag von knapp 6 Millionen USD ein äußerst leistungsfähiges KI-Modell mit dem Namen R1 erstellt. Die dazu gehörende App schob sich im Apple-Shop in kürzester Zeit auf die erste Position der am meisten heruntergeladenen Apps. Der Hype war zeitweise so groß, dass es DeepSeek sogar in die Top News der großen Nachrichtensender und Zeitungen geschafft hat. Inzwischen hat sich die Aufregung etwas gelegt und die Innovation des chinesischen Unternehmens wird inzwischen differenzierter beurteilt. Ja, Deep Seek hat und wird die KI-Welt verändern. Es ist aber keineswegs die disruptive Technologierevolution, die alle bisherigen Annahmen und Markterwartungen zu künstlicher Intelligenz auf den Kopf stellt. So hat auch die anfängliche Begeisterung der App-Nutzer deutlich nachgelassen. Im Apple Store erreicht die App nur noch eine Bewertung von 3,5 Sternen, während ChatGPT und ähnliche Apps unverändert mit 4,5 oder 5 Sternen bewertet werden. Zudem dürfte das Programm trotz seiner Konstruktion als Open Source – das heißt der Quellcode der Software ist frei verfügbar, darf beliebig verändert werden und die Nutzung ist frei – aufgrund berechtigter sicherheitstechnischer Bedenken keinen großen Erfolg in der westlichen Welt haben. Dies gilt insbesondere für westliche Unternehmen und Behörden. In Australien, Italien, Südkorea wie auch Taiwan ist die Benutzung der Software inzwischen sogar verboten. In den USA ist ein entsprechender Gesetzentwurf in Vorbereitung. Ähnliche Schritte wird es mit großer Wahrscheinlichkeit auch in weiteren Ländern und vielen westlichen Unternehmen geben. Was sind bei genauerer Betrachtung die Hauptkritikpunkte an DeepSeek: – Das Training von R1 dürfte mehr Hardware-Ressourcen verschlungen und deutlich mehr gekostet haben als man offiziell zugibt. Die von den Unternehmen genannten 6 Millionen USD beziehen sich nur auf den letzten Trainingsschritt und lassen alle vorher notwendigen Investitionen außer Acht. Die tatsächlichen Zahlen und auch die dabei eingesetzten Prozessoren hält DeepSeek aus gutem Grund – die US-Exportbeschränkungen für KI-Halbleiter – geheim. Nach Einschätzung von Experten dürften die Trainingskosten eher nur um die Hälfte oder um Zwei-Drittel niedriger gewesen sein als bei ChatGPT und nicht um das Hundertfache oder mehr, wie zeitweise spekuliert wurde. – Trotz des Open Source-Ansatzes ist der Trainingsprozess nicht völlig transparent. So fehlen zum Beispiel Angaben über den genauen Trainingsverlauf und die spezifischen Datensätze, die zum Schulen des Modells verwendet wurden. Das ist so ähnlich, wie wenn man beim Kuchenbacken zwar die einzelnen Arbeitsschritte kennt, aber nicht weiß, welche Zutaten, in welcher Konsistenz und zu welchem Zeitpunkt hinzugefügt werden müssen. Vor diesem Hintergrund sind auch die Vorwürfe von Open AI oder Google zu sehen, dass DeepSeek beim Trainieren auf sogenannte „Web-Scraping-Techniken“ zurückgegriffen hat. Also unberechtigterweise Ergebnisse von ChatGPT oder ähnlichen Modellen zum Trainieren benutzt hat. – Die Antwortzeiten des Modells sind aufgrund der im Vergleich zu anderen Anbietern begrenzten Serverarchitektur deutlich länger als bei vergleichbaren Modellen aus den USA. Dies dürfte auch auf den mehrstufigen Aufbau des Modells zurückzuführen sein, wo die Anfragen auf thematisch spezialisierte Untersysteme verteilt werden. – Es wird auch oft angeführt, dass in einem sehr dynamischen Markt der Vergleich von DeepSeek R1 und ChatGPT nicht richtig ist, da auch OpenAI, Google und Meta neuere, schlankere Plattformen in ihrer Entwicklung haben. So hat OpenAI gerade o3-mini vorgestellt, eine sparsame, schnelle Basisversion seines Models, die primär darauf ausgelegt ist, komplexere Probleme zu lösen. O3-mini liefert nach ersten Tests qualitativ ähnlich gute Ergebnisse wie DeepSeek R1, ist aber deutlich schneller. – Die größten Bedenken beziehen sich jedoch auf die ungenügende Datensicherheit von DeepSeek. Sämtliche Nutzerdaten werden in China gespeichert. Die Wahrscheinlichkeit, dass chinesische Behörden diese Daten auswerten und nutzen ist sehr hoch. Darüber hinaus unterliegen die Antworten von R1 offensichtlich der chinesischen Zensur, was sich leicht mit kritischen Fragen an das Modell zur chinesischen Regierung oder der jüngsten chinesischen Geschichte beweisen lässt. Auch hat sich DeepSeek in entsprechenden Tests als extrem anfällig für sogenannte „Jailbreaks“ erwiesen. Das sind Fragen, die das System aus Sicherheitsgründen gar nicht beantworten dürfte, wie zum Beispiel die Anleitung zum Bau einer Bombe. Wenn DeepSeek auch die KI-Welt nicht auf den Kopf stellt und die unmittelbaren Anwendungen von R1 aufgrund der oben aufgeführten Bedenken eher beschränkt sein dürften, so hat die Vorgehensweise des DeepSeek-Teams doch sicher einen wichtigen Einfluss auf die weitere Entwicklung des KI-Marktes. So werden die von DeepSeek genutzten Techniken bei der Weiterentwicklung von KI-Modellen verstärkt genutzt werden, um sie effizienter und ressourcenschonender zu machen. Dies sind beispielsweise: – „Reinforced Learning“ = Bestärktes Lernen. Das Modell findet über ein ausgeklügeltes Belohnungssystem die richtigen Antworten und nicht durch die Auswahl und Optimierung von vorher überprüften Eingaben („Supervised Learning“).

– „Mixture of Experts“ = MoE. Nur die für die spezielle Fragestellung notwendigen Teile des KI-Modells werden genutzt, was erhebliche Einsparungen an Rechenleistung und damit Energieeinsparungen bringt.
– „Multi-Head Latent Attention“ = MLA. Das Modell fokussiert sich ähnlich wie beim MP3-Format in der Musik nur auf die relevanten Daten und braucht daher deutlich weniger Speicherplatz, was ein schnelleres Trainieren und auch zum Teil schnellere Antworten ermöglicht.
Diese primär in den USA entwickelten Methoden waren zwar auch schon vorher bekannt, wurden aber von DeepSeek nun optimal eingesetzt. Generell könnte der verstärkte Gebrauch dieser Techniken dazu führen, dass der durch den KI-Ausbau erwartete massive Anstieg des Stromverbrauchs, insbesondere durch das Anlernen der KI-Modelle, geringer als befürchtet ausfällt.
Auch dürfte DeepSeek die Entwicklung kleiner KI-Modelle, die nur für spezielle Anwendungen ihren Einsatz finden, beschleunigen. Insbesondere im Unternehmensbereich könnte es in einigen Jahren unzählige Varianten solcher Modelle (z. B. für den Einkauf, die Produktionssteuerung, die Logistik das Personalmanagement) geben. Große Softwareunternehmen wie SAP sind in diesen Anwendungsbereichen sehr aktiv und sehen hier ein erhebliches Wachstumspotential.
Das Thema „Edge AI“, also die Nutzung von künstlicher Intelligenz auf Laptops, PCs, Smartphones, aber auch im Auto oder in Maschinen sollte ebenfalls durch DeepSeek einen deutlichen Schub erhalten. Hierfür braucht man Modelle, die mit geringen Computerressourcen auskommen und möglichst wenig Strom verbrauchen. Eine einfache Version von DeepSeek R1 („Distill-Qwen“) kann zum Beispiel auf leistungsfähigen PCs betrieben werden. Angetrieben hiervon dürften viele weitere Innovationen für den Einsatz am „Rande der großen Netzwerke“ zu erwarten sein.
Für uns hat DeepSeek zunächst zwei Implikationen. Die Erste ist relativ offensichtlich, während die Zweite etwas versteckter erscheint:
Erstens dürfte sich der KI-Markt insgesamt durch DeepSeek mehr vom Training der Modelle (bisher noch 80% der Investments) stärker auf den Antwortteil verlagern. Die dafür benötigte Hardware und die Halbleiter sind im Durchschnitt einfacher und billiger. Dafür dürften aber die Stückzahlen deutlich ansteigen. Nach Einschätzung des auf Halbleiter spezialisierten Forschungsinstitutes Yole sollte der Markt für Computerprozessoren durch DeepSeek eher schneller als langsamer wachsen. Hier könnte das aus der Ökonomie bekannte „Jevon-Paradoxon“ zum Tragen kommen: „Die effizientere Nutzung eines Rohstoffes führt nicht zu einem geringeren, sondern aufgrund des niedrigeren Preises und der damit möglichen neuen Anwendungen zu einem höheren Verbrauch eines Rohstoffes“. Ähnlich sieht es auch Arvind Krishna, der CEO von IBM. Gefragt nach den Auswirkungen von DeepSeek, hat er geantwortet: „Wir werden sehen, dass der Einsatz von KI explodieren wird, wenn die Kosten sinken.“
Dafür sprechen auch die deutlich steigenden Investitionen großer Technologiefirmen in ihre KI-Entwicklung, aber auch die jüngsten KI-Pläne einzelner Staaten, wie z. B. der USA: 500 Mrd. USD in das Stargate Projekt; Frankreich: 109 Mrd. € in die eigene KI-Entwicklung. Die zeitweiligen Panikverkäufe von AI-relevanten Aktien erscheinen damit nachträglich betrachtet übertrieben. Da es sich bei der KI jedoch um eine komplexe, sich sehr dynamisch verändernde, von außen nur schwer zu verstehende Technologie handelt, könnten viele Anleger zunächst noch abwartend an der Seitenlinie bleiben. Wir haben daher unser Gewicht in vom KI-Bereich profitierenden Halbleiteraktien vorübergehend etwas reduziert. Auf mittlere bis längere Sicht bleibt KI aber ein entscheidender Treiber für wirtschaftliches Wachstum und damit ein Fokusbereich unserer Investments.
Es gibt jedoch aus unserer Sicht eine zweite Implikation, die bislang zumindest in der Presse kaum Beachtung fand: DeepSeek ist nämlich auch der Beweis, dass der Vorsprung der USA beim Thema KI nicht so uneinholbar groß ist, wie er zeitweise erschien. Auch mit kleineren Budgets, geringerem Energieverbrauch und etwas älteren Prozessoren hat man eine Chance. Das macht auch Mut für Europa im KI-Rennen, das nicht über ähnlich hohe Energiereserven und finanzielle Möglichkeiten wie die USA bzw. deren Tech-Riesen verfügt.
Sehr geehrte Investierende und Freunde/Freundinnen von APUS Capital,
mit unseren Ausführungen zu den im Mittelpunkt der aktuellen Börsendiskussion stehenden Themen, möchten wir durchaus nicht alles, was auf den ersten Blick als große Bedrohung wahrgenommen wird, schönreden. Uns geht es vielmehr darum, aufzuzeigen, wie vielschichtig die Dinge sind und dass vieles oft nicht so bedrohlich ist, wie es uns auf den ersten Blick erscheint. Auch wollten wir sie hiermit an unseren internen Überlegungen, Recherchen und Diskussionen über Themen, die die Märkte bewegen, teilhaben lassen.
Als Schlussfolgerung darf man auch nach den Ereignissen der letzten Wochen sicher mit einem gewissen Optimismus nach vorne blicken. Hierzu gehört auch die Zuversicht ober besser sogar unsere Überzeugung, dass die großen gesellschaftlichen und insbesondere technologischen Trends uns auch in Zukunft erhebliche Chancen an den Aktienmärkten eröffnen werden.
Mit besten Grüßen von den Mauerseglern aus Frankfurt!
Jürgen Kaup, Stefan Meyer, Johannes Ries, Uwe Schupp, Dr. Roland Seibt und Heinz-Gerd Vinken