Insgesamt denke ich, dass die Veranstaltung wichtig war, um zu zeigen, wie AMD den Ball für Kunden und Entwickler auf dem Feld bewegt. Nach SU soll MO von AMD klare, ehrgeizige Pl?ne haben und gegen sie ausführen. Ihr Verh?ltnis von ?Say/Do“ ist hoch. Das Unternehmen macht das, was es sagt. Genau das muss es weiterhin tun, um die Dominanz von Nvidia auf dem MII -GPU -Markt für Rechenzentrum zu verabschieden. Was ich bei der Event für die fortschreitende KI gesehen habe, hat mein Vertrauen aus dem letzten Jahr erh?ht - obwohl es einige Lücken gibt, die angesprochen werden müssen.
(Hinweis: AMD ist ein beratender Kunde meiner Firma Moor Insights & Strategy.)
AMDs KI-Marktchance und Full-Stack-Strategie
Als sie die Bühne betrat, stellte SU den Kontext für AMDs Ankündigungen fest, indem sie das erstaunliche Wachstum beschreibt, das die Kulisse für den heutigen KI -Chipmarkt darstellt. Schauen Sie sich einfach die Tabelle unten an.
In diesem Segment der Chip -Industrie wird bis 2028 ein TAM von einer halben Billion Dollar untersucht, wobei der gesamte KI -Beschleunigungsmarkt mit einem CAGR von 60% zunimmt. Das KI-Inferenz-Subsegment-bei dem AMD mit Nvidia besser fungiert, genie?t ein 80% CAGR. Die Leute dachten, dass die im letzten Jahr zitierten Marktzahlen zu hoch waren, aber nicht so. Dies ist die Welt, in der wir leben. Für die Aufzeichnung habe ich letztes Jahr nie an den TAM -Zahlen zweifelt.
AMD schnitzt einen gr??eren Platz in dieser Welt für sich. Wie SU betonte, wird der Instinkt -GPUs von sieben der zehn gr??ten KI -Unternehmen verwendet, und sie fahren KI für Microsoft Office, Facebook, Zoom, Netflix, Uber, Salesforce und SAP. Der EPYC -Server -CPUs legt weiterhin Rekordmarktanteile (40% im letzten Quartal) und hat einen vollst?ndigen Stapel - teilweise durch intelligente Akquisitionen - aufgebaut, um seine KI -Ambitionen zu unterstützen. Ich würde insbesondere auf die Akquisition von ZT Systems und die Einführung der Pensando DPU und der Pollara Nic verweisen.
Die GPUs stehen im Mittelpunkt der Datacenter AI, und die neue MI350 -Serie von AMD war bei dieser Veranstaltung im Rampenlicht. Obwohl diese Chips im dritten Quartal zum Versand geplant waren, sagte SU, dass die Produktionslieferungen tats?chlich Anfang Juni begonnen hatten, wobei Partner auf dem richtigen Weg waren, Plattformen und ?ffentliche Cloud -Instanzen im dritten Quartal zu starten. Es gab Jubel von der Menge, als sie h?rten, dass der MI350 eine 4 -fache Leistungsverbesserung gegenüber der vorherigen Generation liefert. Laut AMD übertrifft die High-End-MI355X-GPU die Nvidia B200 in H?he von 1,6x Speicher, 2,2-fach-Durchsatz und 40% mehr Token pro Dollar. ( Tests durch mein Unternehmen Signal65 zeigten , dass der MI355X-Laufen Deepseek-R1 bis zu 1,5x h?here Durchsatz als der B200 produzierte.)
Um es in eine andere Perspektive zu bringen, kann ein einzelner MI355X ein 520-Milliarden-Parameter-Modell ausführen. Und ich war nicht überrascht, als SU und andere auf der Bühne auf eine noch bessere Leistung schauten - vielleicht 10x besser - für die MI400 -Serie und darüber hinaus projiziert. Das bringt uns in das Traumland einer einzelnen GPU, die ein Billionen-Parameter-Modell betreibt.
übrigens hat AMD eine Sekunde lang nicht vergessen, dass es sich um eine CPU -Firma handelt. Der EPYC Venice-Prozessor, der im Jahr 2026 auf den Markt kommt, sollte bei absolut alles besser sein-256 Hochleistungskerne, 70% mehr Berechnung als die aktuelle Generation usw. EPYCs schnelle Gewinne des Marktanteils des Rechenzentrums in den letzten Jahren sind kein Zufall, und zu diesem Zeitpunkt muss das gesamte Unternehmen, das für CPUs tun muss, auf seiner aktuellen Auf- und Nach-Rechts-Flugbahn konstant gehalten. Ich bin zuversichtlich, dass Signal65 beim Testen der Behauptungen, die das Unternehmen auf der Veranstaltung erhoben hat, einen Riss erhalten.
Dieses Leistungsniveau ist im Zeitalter der agenten -KI und einer Landschaft vieler konkurrierender und komplement?rer KI -Modelle erforderlich. SU prognostiziert - und ich bin damit einverstanden -, dass es in den kommenden Jahren Hunderttausende von spezialisierten KI -Modellen geben wird. Dies gilt speziell für Unternehmen, bei denen kleinere Modelle auf Bereiche wie CRM, ERP, SCM, HCM, Legal, Finance usw. konzentriert werden. Um dies zu unterstützen, sprach AMD auf der Veranstaltung über seinen Plan, eine j?hrliche Trittfrequenz von Instinktbeschleunigern aufrechtzuerhalten, und fügte jedes Jahr eine neue Generation hinzu. Leicht zu sagen, schwer zu tun - aber auch hier hat AMD heutzutage ein hohes Verh?ltnis/Do -Verh?ltnis.
AMDs 2026-Rack-Scale-Plattform und aktuelle Software-Fortschritte
Auf der Hardwareseite war die gr??te Ankündigung das bevorstehende GPU-Produkt in Helios Rack-Scale, das AMD 2026 liefern will. Dies ist eine gro?e Sache, und ich m?chte betonen, wie schwierig es ist, leistungsstarke CPUs (EPYC Venedig), GPUs (MI400) und Networking-Chips (Networking-Pensando-Vulkan-Networks) in einem Flüssigkeitsgesch?ft zusammenzubringen. Es ist auch eine hervorragende M?glichkeit, Nvidia aufzunehmen, was eine Münze von seinen eigenen Angeboten im Rack-Ma?stab für KI macht. Bei der Veranstaltung sagte SU, dass Helios beim Start im n?chsten Jahr der neue Branchenstandard sein wird (und eine Reihe von Spezifikationen und Leistungsnummern zitierte, um dies zu sichern). Es ist gut zu sehen, dass AMD eine Roadmap so weit drau?en bietet, aber es musste es auch nach Nvidia bei der GTC -Veranstaltung Anfang dieses Jahres gemacht.
Auf der Softwareseite startete Vamsi Boppana, Senior Vice President der Artificial Intelligence Group bei AMD, mit der Ankündigung der Ankunft von ROCM 7, der neuesten Version der Open -Source -Softwareplattform des Unternehmens für GPUs. Wiederum sind gro?e Verbesserungen mit jeder Generation vorhanden - in diesem Fall betonte ein 3,5 -fach -Gewinn der Inferenzleistung im Vergleich zu ROCM 6. Boppana die sehr hohe Kadenz von Updates für AMD -Software, wobei alle zwei Wochen neue Funktionen ver?ffentlicht werden. Er sprach auch über die Vorteile einer verteilten Inferenz, wodurch die beiden Schritte der Inferenz beauftragt werden k?nnen, GPU -Pools zu trennen und den Prozess weiter zu beschleunigen. Schlie?lich kündigte er an, einen Chor von Jubel zu machen, die AMD-Entwickler-Cloud , die den AMD-GPUs von überall zug?nglich macht, damit Entwickler sie verwenden k?nnen, um ihre Ideen zu testen.
Letztes Jahr hatte Meta freundliche Dinge über Rocm zu sagen, und ich war beeindruckt, weil Meta neben Microsoft der schwierigste ?Grader“ ist. In diesem Jahr h?rte ich Unternehmen, die sowohl über Schulungen als auch über Inferenz sprachen, und ich bin wieder beeindruckt. (Mehr dazu weiter unten.) Es war auch gro?artig, einige Zeit mit Anush Elangovan, Vice President für AI Software bei AMD, für ein Video zu bekommen, das ich mit ihm gedreht habe. Elangovan ist sehr hardcore, genau das braucht AMD. Echte Mahlen. Nightly Code f?llt ab.
Was funktioniert gut für AMD in AI
Das ist also (das meiste) das, was bei AMD voranzollte KI. In den n?chsten drei Abschnitten m?chte ich über das Gute, die Bedürfnisse und die noch nicht festgelegten Aspekte dessen sprechen, was ich w?hrend der Veranstaltung geh?rt habe.
Beginnen wir mit den guten Dingen, die auf mich gesprungen sind.
- Ankündigungen von Rack-Scale-Plattform- auf jeden Fall sollten wir keine Hühner z?hlen, bevor sie geschlüpft sind, und wir wissen noch nicht, wie gut Helios auf dem Markt abschneiden werden. Aber ich habe Vertrauen in die F?higkeit des Teams, dieses sehr herausfordernde Projekt zu liefern, und ich denke, dies k?nnte zu einem sch?nen Wettbewerbsangebot werden, das Nvidia dazu zwingt, in einem Gebiet zu kennen, in dem es effektiv frei war.
- ROCM-Fortschritte- dies ist mindestens so aufregend wie die Entwicklungen in Hardware im Rack-Ma?stab, und vielleicht noch mehr-, weil die neue Version sicherlich erm?glicht, aber auch für die Qualit?t und die Trittfrequenz der Verbesserung über die Reifung von AMD im KI-Feld. W?hrend ein Gro?teil der Aufmerksamkeit der Branche in den letzten 2,5 Jahren der KI -Revolution auf GPUs war, ist die Software in praktischer Hinsicht genauso wichtig wie die Hardware. Zur Unterstützung dieser Beobachtung werde ich feststellen, dass ich in den vergangenen Jahren OEM -Führungskr?ften mir nicht sagen lie?, dass sie Nvidia an wichtigen Kreuzungen ausgew?hlt haben, weil seine Software so viel besser war als jeder konkurrierende Chiphersteller. Angesichts des raschen Anstiegs von AMD in diesem Bereich glaube ich nicht, dass sie das heute so leicht sagen k?nnten, zumindest in der Cuda -Schicht. Wenn Sie jedoch NVIDIA -Modelle, Frameworks oder NIMs verwenden, ist dies immer noch schwer zu überwinden.
- KI -Schulung - Letztes Jahr sprach AMD neben Inferenz viel über das Training, aber seine Kunden sprachen nur über Inferenz. Der Kontrast zu dieser Veranstaltung war klar: Technische Führungskr?fte von Meta, Microsoft und Cohere betonten unter anderem, dass sie AMD -GPUs für das Training verwenden, nicht nur für Inferenz. Diese reale Validierung ist wichtig.
- TCO und Trust - Warum ist das AMD -Gewinnergesch?ft? Ein Kunde oder Partner, der nach dem anderen Begriffe wie ?Vertrauen“ und ?Beziehung“ wiederholte, um über die Zusammenarbeit mit AMD und ?TCO“ oder ?Preis/Leistung“ zu sprechen, um darüber zu sprechen, wie seine Produkte liefern. Wohlgemerkt, das bedeutet nicht, dass AMD ein Pushover ist oder dass seine Produkte billig sind. Dies bedeutet, dass sich das Unternehmen zuverl?ssig und leicht zu tun hat und dass seine Produkte die Probleme l?sen, die es auf eine Weise l?st, die gesch?ftliche sinnvoll ist.
- UALINK - Dies ist ein schmalerer Gegenstand als das oben genannte, aber obwohl mein Unternehmen das Ultra Accelerator Link Consortium seit seinem Start im letzten Jahr behandelt hat , habe ich mich in letzter Zeit über die Wettbewerbsposition von Ualink gefragt. Das war insbesondere dann wahr, nachdem Nvidia NVLink Fusion im letzten Monat angekündigt hatte. Aber ich fühle mich besser in Bezug auf die Vitalit?t von Ualink, nachdem ich beim AMD -Event von Jitendra Mohan, CEO von Astera Labs, davon geh?rt habe und zurückdreht, um mit den XPU -Anbietern zu sprechen.
- Neue Freunde - Ich war angenehm überrascht, dass die G?ste auf der Bühne Führungskr?fte aus Xai und Openai (nicht weniger als Sam Altman selbst) umfassten. Es ist zwar zu früh, um zu erkennen, ob dies zu einem gro?en Unternehmensbetrag bei der Firma (oder einfach von den KI -Unternehmen als Preishebel gegen NVIDIA verwendet werden kann), aber es war dennoch beeindruckend.
Was hat für mich nicht funktioniert, um die KI voranzutreiben
W?hrend ich insgesamt dachte, dass die Voranzeige von AI ein Sieg für AMD war, gab es zwei Bereiche, in denen ich dachte, das Unternehmen verpasste die Marke - eine durch Auslassung, eine von Provision.
- NIMS - W?hrend die CUDA -Plattform von Nvidia das gr??te Wettbewerbsunterschied in der Software ist, ist es kaum das einzige Unterscheidungsmerkmal. Seine NIM -Microservices erleichtern Unternehmen den Unternehmen, Fundamentmodelle in der Cloud, dem Rechenzentrum, wo immer. Und ich habe bisher nichts von AMD gesehen, das dem Vorteil von Nvidia in diesem Bereich entgegenwirken k?nnte. Wenn AMD über die Waren verfügt, muss es eine bessere Nachricht und ver?ffentlichen sie besser. Wenn dies nicht der Fall ist, muss es in diesem Bereich steigen oder riskieren, im Nachteil zu konkurrieren. Dies gilt insbesondere für das Enterprise, wo SAP, Servicenow, Cloudera, Datenbanken, Arbeitstag und andere Unternehmen NIMS haben. Ich wei?, dass die Linux Foundation an etwas arbeitet, aber es w?re gro?artig gewesen, diese auf der Bühne zu verst?rken.
- "Open" -Tropen - ich glaube, dass AMD richtig ist, wenn sie besagt, dass die ?offene“ Technologie - Hardware, Software, ?kosysteme - im Allgemeinen ausgezeichnet wird, wenn wir in der Geschichte der modernen Informationstechnologie schauen. Und es ist nicht schwer, Beispiele wie Linux, Pytorch, OCP oder Android zu unterstützen. Aber im speziellen Fall von kommerziellem GPUs hat Offenheit in den letzten über 20 Jahren nicht gewonnen. Zu diesem Zeitpunkt habe ich diesen Film immer und immer wieder gesehen. "Open" war in der Regel zu langsam, da Nvidia weiterhin viel schneller funktioniert als die typischen ?geschlossenen“ dominanten Anbieter, die wir in den letzten Jahrzehnten in verschiedenen Bereichen der Technologie gesehen haben. Erinnert sich jemand, als OpenCL Nvidia an seine Stelle bringen würde? W?hrend ich offene Standards und offene Entwicklungsprozesse für den Wachstum von M?rkten und die breite Verbreitung von Technologien gef?llt, gibt es nur so viel, dass es so hilft, diese Trommel zu schlagen, wenn Sie gegen einen 800-Pfund-Gorilla zu tun haben, der nie müde zu werden scheint oder jemals seinen Durst zu verlieren, um zu gewinnen und schnell zu gewinnen. Wenn ich sonst Beweise sehe, kann ich meine Meinung ?ndern.
Die Jury ist auf einigen Elementen der AI -Strategie von AMD unterwegs
In einigen Bereichen vermute ich, dass AMD bald gut geht oder es bald gut geht - aber ich bin mir einfach nicht sicher. Ich kann mir nicht vorstellen, dass einer der folgenden Gegenst?nde der Aufmerksamkeit von AMD vollst?ndig entgangen ist, aber ich würde empfehlen, dass das Unternehmen sie offen anspricht, damit die Kunden wissen, was sie erwarten und ein hohes Vertrauen in das, was AMD liefert, aufrechterhalten kann.
- Die Teilnahme im Rack-Ma?stab im Bereich ?kosystem- Wie ich oben sagte, klingt Helios gro?artig. Aber wie spielen OEMs und ODMs in einer Umgebung, in der AMD eigene L?sungen im Rack-Ma?stab erstellt? Nehmen sie an der Blaupausestufe teil? Validierte OCP -Designs? Ich würde gerne mehr darüber erfahren, wie AMD diese Partnerschaften für Rack-Scale sieht.
- Speicher- Einfache Frage: Was sind die besten Speicherl?sungen für AMDs Rack-Scale-Produkte? ,
- Keine OEMs auf der Bühne für GPUs - AMD listete Dutzende von MI350 -Partnern auf, aber keiner der Partner oder Kunden, die von der Bühne sprachen, stammte von OEMs. Ist das zuf?llig? Sind OEMs wütend über den Wettbewerb um L?sungen im Bereich Rack-Scale? Ich denke, AMD w?re gut dient, um allen OEM-bezogenen Ankündigungen in seiner Pipeline zus?tzliche TLC zu geben. Optik ist nicht alles. . . Aber sie sind auch nicht nichts.
- Enterprise GPUs - Wie ich bereits zuvor besprochen habe, hat AMD mit seinen Prozessoren (sowohl GPUs als auch CPUs) mit Hyperzalern gro?e Fortschritte gemacht. Im Enterprise Datacenter? Weniger so. Der Fortschritt mit Enterprise -GPUs scheint unklar zu sein, und ich würde gerne eine Ankündigung eines oder zwei netten Kundengewinnes sehen.
- Keine neuen Hyperscalers angekündigt - wie gerade erw?hnt, waren Hyperscalers in den letzten Jahren sehr wichtig für den Erfolg von AMD, und jeder Chip -Anbieter würde gerne die leuchtenden Worte h?ren, die Microsoft, Meta und Oracle bei dieser Veranstaltung auf der Bühne anbot. Aber AWS und Google sind bisher MI-Serie-Holdouts. Wenn der CSPs vorhat, die AMD -Adoption bekannt zu geben, würden sie es wahrscheinlich vor ihren eigenen Veranstaltungen zu ihren eigenen Bedingungen tun (z. B. AWS Re: Erfindung gegen Ende des Jahres). Sowohl AWS als auch Google haben erhebliche Investitionen in ihren eigenen XPUs get?tigt. Sie würden sich also auf AMD konzentrieren, um Inferenz zu erhalten? Letztendlich denke ich, wir werden sie an Bord kommen sehen, aber ich wei? nicht wann.
Was kommt als n?chstes in AMDs KI -Entwicklung
Es ist sehr schwierig, modernste Halbleiter zu konstruieren-geschweige denn Systeme im Rack-Ma?stab und die gesamte damit verbundene Software-auf der stetigen Trittfrequenz, die AMD aufrechterh?lt. Also ein gro?es Lob an SU und alle anderen in der Firma, die das m?glich machen. Aber mein Selbstvertrauen (und die Wall Street) würde steigen, wenn AMD mehr Granularit?t darüber lieferte, was es tut, und beginnend mit den GPU -Vorhersagen der Datacenter. Offensichtlich muss AMD nicht mit Nvidia mit jeder einzelnen Sache konkurrieren, um erfolgreich zu sein. Aber es w?re gut dient, einige der Lücken in seiner Geschichte zu füllen, um besser mit dem umfassenden ?kosystem zu sprechen, das es schafft.
Nachdem ich viel Zeit in Unternehmen auf der OEM- und Semiconductor -Seiten verbracht habe, verstehe ich die Schwierigkeiten, mit denen AMD mit dieser Art von Klarheit konfrontiert ist. Der Prozess der Landungsdesign-Siege kann klumpig sein, und einige der Nicht-AMD-Sprecher bei der Weiterentwicklung der KI erw?hnten, dass das Unternehmen in den in diesem Prozess unvermeidlichen ?Bake-offs“ besch?ftigt ist. In der Zwischenzeit werden wir uns fragen, was die Dinge zurückhalten k?nnte, au?er AMDs institutionellem Konservatismus - die gesunde Zurückhaltung der Ingenieure, keine Ansprüche zu gründen, bis sie sich des Siegs sicher sind.
Mit Nvidia's B200, die für das n?chste Jahr ausverkauft sind, würde man denken, dass AMD in der Lage sein sollte, jeden Wafer zu verkaufen, den es macht, oder? Also sind die Renditen von AMD noch nicht gut genug? Oder haben Hyperteller ihre eigenen Probleme, die sich skalieren und einsetzen? Gibt es einen anderen Gating -Gegenstand? Ich würde gerne wissen.
Bitte nehmen Sie keine meiner Fragen falsch, denn AMD macht einige erstaunliche Dinge, und ich habe mich von der vorrückenden KI -Veranstaltung von den Fortschritten des Unternehmens beeindruckt. In der Show war Su offensichtlich, das Tempo dieser KI -Revolution zu beschreiben, in der wir leben - ?anders als alles, was wir im modernen Computer gesehen haben, alles, was wir in unserer Karriere gesehen haben, und ehrlich gesagt alles, was wir in unserem Leben gesehen haben.“ Ich werde immer wieder nach Antworten auf meine n?rgelnden Fragen suchen, und ich bin gespannt darauf, wie sich die Konkurrenz zwischen AMD und Nvidia in den n?chsten zwei Jahren und darüber hinaus abspielt. In der Zwischenzeit bewegte AMD bei seiner Veranstaltung das Feld hinunter, und ich freue mich darauf zu sehen, wohin es geht.
Das obige ist der detaillierte Inhalt vonAMD baut immer wieder an Dynamik in KI auf. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gest?rt haben? W?hrend Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Bis Mitte 2025 heizt sich das KI ?Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 ver?ffentlicht. Diese beiden Modelle befinden

Aber wir müssen wahrscheinlich nicht einmal 10 Jahre warten, um einen zu sehen. Was als erste Welle wirklich nützlicher, menschlicher Maschinen angesehen werden k?nnte, ist bereits da. In den letzten Jahren wurden eine Reihe von Prototypen und Produktionsmodellen aus t herausgezogen

Aufgebaut auf Leia's propriet?rer neuronaler Tiefenmotor verarbeitet die App still Bilder und fügt die natürliche Tiefe zusammen mit simulierten Bewegungen hinzu - wie Pfannen, Zoome und Parallaxeffekte -, um kurze Video -Rollen zu erstellen, die den Eindruck erwecken, in die SCE einzusteigen

Bis zum Vorjahr wurde eine schnelle Engineering als entscheidende F?higkeit zur Interaktion mit gro?artigen Modellen (LLMs) angesehen. In jüngster Zeit sind LLM jedoch in ihren Argumentations- und Verst?ndnisf?higkeiten erheblich fortgeschritten. Natürlich unsere Erwartung

Stellen Sie sich vor, dass etwas Geformtes, wie ein KI -Motor, der bereit ist, ein detailliertes Feedback zu einer neuen Kleidungssammlung von Mailand oder automatische Marktanalyse für ein weltweit betriebenes Unternehmen zu geben, oder intelligentes Systeme, das eine gro?e Fahrzeugflotte verwaltet.

Eine neue Studie von Forschern am King's College London und der University of Oxford teilt die Ergebnisse dessen, was passiert ist, als OpenAI, Google und Anthropic in einem Cutthroat -Wettbewerb zusammengeworfen wurden, der auf dem iterierten Dilemma des Gefangenen basiert. Das war nein

Wissenschaftler haben eine clevere, aber alarmierende Methode aufgedeckt, um das System zu umgehen. Juli 2025 markierte die Entdeckung einer aufw?ndigen Strategie, bei der Forscher unsichtbare Anweisungen in ihre akademischen Einreichungen eingefügt haben - diese verdeckten Richtlinien waren Schwanz
