


Fortgeschrittene KI -Modelle generieren bis zu 50 -mal mehr CO ₂ Emissionen als h?ufigere LLMs bei der Beantwortung der gleichen Fragen
Jul 06, 2025 am 12:37 AMJe genauer wir versuchen, KI -Modelle zu funktionieren, desto gr??er werden ihre Kohlenstoffemissionen - mit bestimmten Aufforderungen, die laut einer kürzlich durchgeführten Studie bis zu 50 -mal mehr Kohlendioxid erzeugen als andere.
Argumentationsmodelle wie Claude von Anthropic, OpenAIs O3 und Deepseeks R1 sind erweiterte Gro?sprachenmodelle (LLMs), die zus?tzliche Zeit- und Rechenressourcen zuweisen, um genauere Antworten im Vergleich zu früheren Versionen zu liefern.
Obwohl diese Modelle beeindruckende Ergebnisse erzielten, haben sie auch schwerwiegende Einschr?nkungen bei der L?sung komplexer Probleme gezeigt. Jetzt haben Forscher einen weiteren Nachteil aufgedeckt - ihren erheblichen CO2 -Fu?abdruck. Ihre Ergebnisse wurden am 19. Juni in der Journal Frontiers in Kommunikation ver?ffentlicht.
"Die Umwelteinflüsse von Abfragen geschulter LLMs wird stark von ihrer Argumentationsmethode beeinflusst, wobei explizite Argumentationsmethoden die Energieverbrauch und die Kohlenstoffemissionen erheblich erh?hen", sagte Maximilian Dauner , ein Forscher an der Hochschule München Universit?t angewandter Wissenschaften in Deutschland, in einer Aussage . "Wir haben beobachtet, dass ma?streichende Modelle bis zu 50-mal mehr Co? emittiert als Modelle, die für kürzere Antworten optimiert wurden."
Wenn Sie auf Eingabeaufforderungen reagieren, verarbeiten LLMs Sprache, indem sie sie in Token aufteilt - Segmente von W?rtern, die in numerische Sequenzen umgewandelt wurden, bevor sie von neuronalen Netzwerken verarbeitet werden. Diese Netzwerke werden unter Verwendung von Trainingsdaten verfeinert, die die Wahrscheinlichkeit spezifischer Muster bestimmt. Basierend auf diesen Wahrscheinlichkeiten generieren sie Antworten.
Um die Genauigkeit zu verbessern, verwenden Argumentationsmodelle eine Methode, die als "Kette der Gedanken" bezeichnet wird. Dies beinhaltet die Aufschlüsselung eines komplexen Problems in kleinere, logische Schritte, ?hnlich wie die Menschen das gleiche Problem l?sen k?nnten.
Verwandte: KI "Halluzinaten", aber es gibt eine M?glichkeit, es zu beheben
Melden Sie sich für den Live Science Daily Newsletter an, das kautiert wird. Diese Modelle erfordern viel mehr Energie als Standard -LLMs und schaffen m?glicherweise eine wirtschaftliche Herausforderung für Unternehmen und Benutzer, die sie implementieren m?chten. Trotz einiger bestehender Untersuchungen zu den Umweltkonsequenzen der Erweiterung der KI -Nutzung bleiben direkte Vergleiche der CO2 -Fu?abdrücke zwischen verschiedenen Modellen begrenzt.
Die Kosten für die Argumentation
Um die CO? -Emissionen aus verschiedenen Modellen zu bewerten, stellten die Forscher hinter dieser neuen Studie in mehreren Themen auf 14 LLM 1.000 Fragen. Die Modelle variierten in der Gr??e von 7 bis 72 Milliarden Parametern.
Diese Berechnungen wurden unter Verwendung des Perun -Frameworks - der die LLM -Leistung und den Stromverbrauch bewertet - bei einer NVIDIA A100 GPU durchgeführt. Das Team übersetzte dann den Energieverbrauch in CO?-Emissionen, vorausgesetzt, jede Kilowattstunde erzeugt 480 Gramm Co? .
Ihre Ergebnisse zeigen, dass die Argumentationsmodelle im Durchschnitt 543,5 Token pro Frage generierten, verglichen mit nur 37,7 Token für pr?zise Modelle. Diese zus?tzlichen Token bedeuteten erh?hte rechnerische Arbeitsbelastungen, was zu h?heren CO? -Emissionen für genauere Argumentationsmodelle führte.
Das genaueste Modell war das 72 -Milliarden -Parameter -Cogito -Modell, das 84,9% der Benchmark -Fragen korrekt beantwortete. Cogito emittierte jedoch dreimal mehr Co? als Modelle mit ?hnlich gro?er Gr??e, die kürzere Antworten erzeugen sollen.
"Gegenw?rtig beobachten wir einen deutlichen Kompromiss zwischen Genauigkeit und Nachhaltigkeit in LLM-Technologien", erkl?rte Dauner. "Keines der Modelle, die die Emissionen unter 500 Gramm CO? -?quivalent [Gesamtgase für Treibhausgase] aufrechterhalten haben, gelang es, mehr als 80% Genauigkeit bei der korrekten Beantwortung der 1.000 Fragen zu erreichen."
Das obige ist der detaillierte Inhalt vonFortgeschrittene KI -Modelle generieren bis zu 50 -mal mehr CO ₂ Emissionen als h?ufigere LLMs bei der Beantwortung der gleichen Fragen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Das Hauptanliegen bei Big Tech, das mit künstlicher Intelligenz (KI) experimentiert, ist es nicht, dass es die Menschheit dominieren k?nnte. Das eigentliche Problem liegt in den anhaltenden Ungenauigkeiten von Gro?sprachmodellen (LLMs) wie der Open AI -Chatgpt, Googlees Gemini und Google

Je fortgeschrittener künstlicher Intelligenz (KI) wird, desto mehr "halluzinieren" und liefern falsche oder ungenaue Informationen.

Die britische National Crime Agency (NCA) hat vier Personen verhaftet, die der Beteiligung an den Cyber-Angriffen auf Markierungen und Spencer (M & S), Co-op und Harrods.According zu einer Erkl?rung verd?chtigen, zwei 19-j?hrige M?nner, ein 17-j?hriger O-o

Argumentationsmodelle für künstliche Intelligenz (KI) sind nicht ganz so f?hig, wie sie erscheinen. In Wirklichkeit wird ihre Leistung vollst?ndig zusammengefasst, wenn die Aufgaben zu komplex werden, so Forscher von Apple. Verarbeitung von Modellen wie Anthropics Claude, offen, offen

Post-Quantum-Kryptographie hat für Cybersecurity-Führungskr?fte eine oberste Priorit?t geworden, aber jüngste Untersuchungen zeigen, dass einige Organisationen die Bedrohung mit der Ernsthaftigkeit, die es verlangt, nicht behandeln.

Laut einer kürzlich durchgeführten Umfrage, in der auch eine betr?chtliche Anzahl von Unternehmen im vergangenen Jahr von der Malware betroffen war

Red Hat hat eine neue Self-Service-Plattform eingeführt, die einen leichteren Zugang zu seinem Entwicklerprogramm bietet. Die Initiative "Red Hat Enterprise Linux für Business Developers

Das Investieren in eine neue Website oder digitale Plattform ist für jedes Unternehmen entscheidend. Unabh?ngig davon
