国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

Heim Technologie-Peripherieger?te IT Industrie Beschleunigung der Cloud: Was zu erwarten ist, wenn Sie Cloud native machen

Beschleunigung der Cloud: Was zu erwarten ist, wenn Sie Cloud native machen

Feb 09, 2025 am 10:37 AM

Ampere Cloud native Plattform: Die perfekte Kombination aus Leistung, Nachhaltigkeit und Kosteneffizienz

Dieser Artikel ist der vierte Teil der "Accelerating Cloud Computing" -Serie von Ampere Computing, in der die vielen Vorteile der Migration auf Cloud-nativen Plattformen untersucht werden. Der vorherige Artikel hat die Unterschiede zwischen X86-Architektur und Cloud-nativen Plattformen und den für die Cloud-native Migration erforderlichen Investitionen erl?utert. Dieser Artikel konzentriert sich auf die Vorteile von Cloud-nativen Plattformen.

Die Vorteile von Cloud -nativen Prozessoren in Cloud Computing:
  • Leistung pro Rack und pro Dollar
  • erh?hen
  • verbesserte Vorhersehbarkeit und Konsistenz
  • Effizienz verbessern
  • optimierte Skalierbarkeit
  • Betriebskosten senken

Cloud native Prozessor erreicht die Spitzenleistung

Im Gegensatz zur X86 -Architektur, die eine gro?e Anzahl von Legacy -Funktionen tr?gt, sind Ampere Cloud -native Prozessoren so ausgelegt, dass sie effizient gemeinsame Cloud -Anwendungsaufgaben ausführen. Dies verbessert die Leistung kritischer Cloud -Workloads, auf die Unternehmen am meisten angewiesen sind, erheblich.

Accelerating the Cloud: What to Expect When Going Cloud Native

Abbildung 1: Ampere Cloud native Plattform führt bei kritischen Cloud -Workloads signifikant h?her als X86 -Plattformen. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".

Cloud Native bringt eine h?here Reaktionsgeschwindigkeit, Konsistenz und Vorhersehbarkeit

mit.

Für Anwendungen, die Netzwerkdienste anbieten, ist die Antwortzeit der Benutzeranforderungen eine wichtige Leistungsmetrik. Die Reaktionsgeschwindigkeit h?ngt von der Last und der Skalierbarkeit ab.

W?hrend die Spitzenleistung wichtig ist, müssen viele Anwendungen bestimmte Service Level -Vereinbarungen (SLAs) entsprechen, z. B. die Reaktion innerhalb von zwei Sekunden. Daher messen Cloud -Operations -Teams die Reaktionsgeschwindigkeit normalerweise mithilfe der P99 -Latenz (d. H. 99% der Anfragen erhalten in dieser Zeit eine zufriedenstellende Reaktionszeit).

Um die P99 -Latenz zu messen, erh?hen wir die Anzahl der Anforderungen an den Dienst, um festzustellen, wo 99% der Transaktionen innerhalb der erforderlichen SLA noch abgeschlossen sind. Auf diese Weise k?nnen wir den maximalen Durchsatz bewerten, w?hrend die SLA beibehalten wird und die Auswirkungen auf die Leistung mit zunehmender Anzahl von Benutzern bewertet.

Konsistenz und Vorhersagbarkeit sind zwei Hauptfaktoren, die die Gesamtlatenz und die Reaktionsgeschwindigkeit beeinflussen. Die Reaktionsgeschwindigkeit ist vorhersehbarer, wenn die Aufgabenleistung konsistenter ist. Mit anderen Worten, je kleiner der Unterschied in der Latenz und Leistung, desto vorhersehbarer ist die Reaktionsgeschwindigkeit einer Aufgabe. Die Vorhersehbarkeit hilft auch bei der Vereinfachung der Arbeitsbelastungsausgleich.

Wie im ersten Teil dieser Serie erw?hnt, verwendet der X86 Core die Hyperthreading -Technologie, um die Kernnutzung zu verbessern. Da zwei Threads einen Kern haben, ist es schwierig, SLA zu garantieren. Hyperthreading Overhead und inh?rente Inkonsistenzen in anderen X86 -Architekturproblemen führen zu gr??eren Latenzunterschieden zwischen Aufgaben im Vergleich zu Ampere -Cloud -nativen Prozessoren (siehe Abbildung 2). X86-basierte Plattformen k?nnen daher eine hohe Spitzenleistung aufrechterhalten, werden jedoch aufgrund von Unterschieden mit hoher Latenz bald die SLA übertreffen. Darüber hinaus, desto strengerer SLA (d. H. Sekunden gegen Millisekunden), desto gr??er ist der Einfluss dieser Differenz auf die Latenz und die Reaktionsgeschwindigkeit von P99. Accelerating the Cloud: What to Expect When Going Cloud Native

Abbildung 2: Hyperthreading und andere X86 -Architekturprobleme führen zu erh?hten Latenzunterschieden, die den Durchsatz und SLA negativ beeinflussen. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".

In diesem Fall besteht die einzige M?glichkeit, die Latenz zu verringern, die Antragsrate zu reduzieren. Mit anderen Worten, um SLA zu gew?hrleisten, müssen mehr X86 -Ressourcen zugewiesen werden, um sicherzustellen, dass jeder Kern unter niedrigeren Lasten l?uft, wodurch das Problem gro?er Unterschiede in Reaktionsgeschwindigkeiten zwischen Threads unter hohen Lasten gel?st wird. X86-basierte Anwendungen unterliegen daher mehr Einschr?nkungen für die Anzahl der Anforderungen, die sie bei der Verwaltung ihrer SLAs verwalten k?nnen.

Vergleichsdiagramm der Leistung und Energieeffizienz von Nginx, Redis, H.264 Mediencodierung und Memcached

Accelerating the Cloud: What to Expect When Going Cloud Native Accelerating the Cloud: What to Expect When Going Cloud Native Accelerating the Cloud: What to Expect When Going Cloud Native Accelerating the Cloud: What to Expect When Going Cloud Native

Cloud Native bringt eine h?here Kosteneffizienz

Cloud -native Methoden k?nnen SLA auf wiederholbare Weise eine konsistente Reaktionsgeschwindigkeit und eine h?here Leistung bieten, was auch eine h?here Kostenleistung bedeutet. Dies senkt direkt die Betriebskosten, da mehr Anfragen mit weniger Kernen verwaltet werden k?nnen. Kurz gesagt, native Cloud -Plattformen erm?glichen es Anwendungen, mehr mit weniger Kernen zu tun, ohne die SLA zu beeinflussen. Eine h?here Auslastung führt direkt in niedrigere Betriebskosten-da Sie weniger Cloud-native Kerne ben?tigen, um dieselbe Last im Vergleich zu X86-basierten Plattformen zu verwalten.

Wie viel k?nnen Sie sparen? Die grundlegende Computereinheit des Cloud Computing ist VCPU. Für X86-basierte Plattformen führt jeder X86-Kern jedoch zwei Threads aus. Wenn Sie also das Hyperthreading deaktivieren m?chten, müssen Sie X86 VCPU paarweise mieten. Andernfalls wird die Anwendung den X86 -Kern mit einer anderen Anwendung freigegeben.

Auf Cloud -nativen Plattformen wird der gesamte Kern beim Mieten von VCPUs zugewiesen. In Anbetracht 1) ein einzelner Ampere-basierter VCPU auf einem Cloud-Dienstanbieter (CSP) bietet ein vollst?ndiger Ampere-Kern, 2) Ampere liefert mehr Kerne pro Schlitz, entsprechend h?here Leistung pro Watt und 3) Ampere-VCPUs Die Kosten pro Stunde sind normalerweise niedriger Aufgrund h?herer Kerndichte und niedrigerer Betriebskosten, was zu einem 4,28-fachen Kosten-/Leistungsvorteil von Ampere Cloud-nativen Plattformen für einige Cloud-native Workloads führt.

h?here Energieeffizienz, bessere Nachhaltigkeit und niedrigere Betriebskosten

Stromverbrauch ist ein globales Problem, und das Stromverbrauchsmanagement wird schnell zu einer der Hauptherausforderungen für Cloud -Dienstleister. Derzeit verbrauchen Rechenzentren 1% bis 3% des weltweiten Stroms, und dieser Anteil wird sich voraussichtlich bis 2032 verdoppeln. Im Jahr 2022 wird erwartet, dass Cloud -Rechenzentren 80% dieses Energiebedarfs ausmachen.

Da sich die Architektur seit mehr als 40 Jahren für verschiedene Anwendungsf?lle entwickelt hat, verbrauchen Intel X86-Kerne mehr Leistung als die meisten Cloud-basierten Microservices-basierten Anwendungen. Darüber hinaus machen das Strombudget des Racks und die W?rmeabteilung dieser Kerne CSP unm?glich, das Rack mit einem X86 -Server zu füllen. Angesichts der Leistung und der thermischen Einschr?nkungen des X86 -Prozessors muss der CSP m?glicherweise Platz im Rack lassen und wertvolle Platz verschwenden. Tats?chlich wird bis 2025 erwartet, dass herk?mmliche (x86) Cloud -Computing -Ans?tze die Strombedarfsdachfrage von Rechenzentren verdoppeln und den Immobilienbedarf um das 1,6 -fache erh?hen.

Accelerating the Cloud: What to Expect When Going Cloud Native

Abbildung 7: Die Leistung und der Raum, der erforderlich ist, um das erwartete Wachstum von Rechenzentren fortzusetzen. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".

Unter Berücksichtigung von Kosten und Leistung muss das Cloud Computing von allgemeinem X86-Computing zu einer Cloud-nativen Plattform wechseln, die energieeffizienter und h?her ist. Insbesondere müssen wir eine h?here Kerndichte im Rechenzentrum sowie leistungsstarke Kerne haben, die effizient, energieeffizienter und weniger Betriebskosten sind.

Da die native Ampere -Cloud -Plattform für die Energieeffizienz ausgelegt ist, verbrauchen Anwendungen weniger Leistung, ohne die Leistung oder Reaktionsgeschwindigkeit zu beeintr?chtigen. Abbildung 8 zeigt den Stromverbrauch von Workloads in gro?em Ma?stab, die auf X86-basierten Plattformen und Ampere-Cloud-nativen Plattformen ausgeführt werden. Abh?ngig von der Anwendung ist die Leistung von Ampere pro Watt (gemessen mit der Leistung pro Watt) signifikant h?her als die X86 -Plattform.

Accelerating the Cloud: What to Expect When Going Cloud Native

Abbildung 8: Ampere Cloud native Plattform weist bei kritischen Cloud -Workloads eine signifikant h?here Energieeffizienz als X86 -Plattformen auf. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".

Die Architektur mit geringer Leistung von Cloud-nativen Plattformen erm?glicht eine h?here Kerndichte pro Rack. Beispielsweise erm?glichen die hohe Kernzahl von Ampere? Altra? (80 Kerne) und Altra Max (128 Kerne) CSPs, eine unglaubliche Kerndichte zu erreichen. Mit Altra Max kann ein 1U -Chassis mit zwei Slots 256 Kerne in einem einzigen Rack haben (siehe Abbildung 8).

Mit nativen Cloud -Prozessoren müssen Entwickler und Architekten nicht mehr zwischen geringer Leistung und hoher Leistung w?hlen. Die Altra -Serienprozessorarchitektur bietet eine h?here Rechenleistung - UP bis 2,5x Leistung pro Rack - und die dreifache Anzahl der Racks, die erforderlich sind, um die gleiche Rechenleistung wie herk?mmliche X86 -Prozessoren zu erhalten. Die Effizienzarchitektur von Cloud-nativen Prozessoren liefert auch die besten Kosten der Branche pro Watt.

Accelerating the Cloud: What to Expect When Going Cloud Native

Abbildung 9: Die Ineffizienz der X86 -Plattform führt zu einer Kapazit?t von Leerlaufregalen, w?hrend die hohe Energieeffizienz des Ampere Altra Max den gesamten verfügbaren Raum voll ausnutzt.

Die Vorteile sind beeindruckend. Bis 2025 k?nnen Cloud-native Anwendungen, die in ampere basierten Cloud-Rechenzentren ausgeführt werden, den Strombedarf auf gesch?tzte 80% der aktuellen Nutzung reduzieren. In der Zwischenzeit wird der Immobilienbedarf voraussichtlich um 70% sinken (siehe Abbildung 7 oben). Ampere Cloud Native Platform bietet eine 3 -fach -Leistung pro Watt -Vorteil, die die Kapazit?t des Rechenzentrums effektiv verdreifacht und gleichzeitig gleich bleibt.

Bitte beachten Sie, dass diese Cloud-native Methode keine fortschrittliche Flüssigkühlungstechnologie erfordert. W?hrend die Flüssigkühlung die Dichte von X86 -Kernen in einem Rack erh?ht, bringt sie h?here Kosten ohne neuen Wert. Cloud-native Plattformen verz?gern die Nachfrage nach dieser fortgeschrittenen Kühlung auf eine weitere Zukunft, indem CSPs erm?glicht werden k?nnen, mit ihren vorhandenen Immobilien- und Stromkapazit?ten mehr zu tun.

Die Energieeffizienz von nativen Cloud -Plattformen bedeutet eine nachhaltigere Cloud -Bereitstellung (siehe Abbildung 10 unten). Es erm?glicht Unternehmen auch, ihren CO2 -Fu?abdruck zu reduzieren, einem Faktor, der zunehmend von Stakeholdern wie Anlegern und Verbrauchern gesch?tzt wird. In der Zwischenzeit kann CSPs mehr Computerbefugnis unterstützen, um die wachsende Nachfrage innerhalb ihrer bestehenden Kapazit?ts- und Leistungsbeschr?nkungen zu befriedigen. Um zus?tzliche Wettbewerbsvorteile zu erzielen, wird CSPs, die ihren Cloud-nativen Markt erweitern m?chten, Stromausgaben für die Rechenressourcenpreise enthalten-die Wettbewerbsvorteile für Cloud-native Plattformen bieten.

Accelerating the Cloud: What to Expect When Going Cloud Native

Abbildung 10: Warum Cloud-natives Computing für Nachhaltigkeit von entscheidender Bedeutung ist. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".

Cloud Native erreicht eine h?here Reaktionsgeschwindigkeit und Skalierbarkeitsleistung

Mit

Cloud Computing k?nnen Unternehmen gro?e monolithische Anwendungen beseitigen und zu Anwendungskomponenten (oder Microservices) wechseln, die mehr Kopien von Komponenten für die Nachfrage nach Skalierung erstellen k?nnen. Da diese Cloud-nativen Anwendungen in der Natur verteilt und für die Cloud-Bereitstellung ausgelegt sind, k?nnen sie auf Cloud-nativen Plattformen nahtlos auf 100.000 Benutzer skalieren.

Wenn Sie beispielsweise mehrere MySQL -Container bereitstellen, müssen Sie sicherstellen, dass jeder Container eine stabile Leistung hat. Bei Ampere hat jede Anwendung ihren eigenen Kern. Es besteht keine Notwendigkeit, die Isolation aus einem anderen Thread zu überprüfen, noch den Overhead bei der Verwaltung von Hyperthreading. Stattdessen bietet jede Anwendung eine konsistente, vorhersehbare und wiederholbare Leistung mit nahtloser Skalierbarkeit.

Ein weiterer Vorteil, sich der Cloud -nativen zu wenden, ist die lineare Skalierbarkeit. Kurz gesagt, jeder Cloud-native Kern verbessert die Leistung linear im Vergleich zur X86-Leistung-und die X86-Leistung nimmt mit zunehmender Verwendung ab. Abbildung 11 unten zeigt die H.264 -Codierung.

Accelerating the Cloud: What to Expect When Going Cloud Native

Abbildung 11: Ampere Cloud Native Computing erweitert sich linear, was nicht den Kapazit?ts -Leerlauf verursacht, was sich vom X86 -Computing unterscheidet. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".

Zusammenfassung der nativen Cloud -Vorteile

Es ist offensichtlich, dass die aktuelle X86 -Technologie nicht in der Lage sein wird, zunehmend strengere Leistungsbeschr?nkungen und -vorschriften zu erfüllen. Dank ihrer effizienten Architektur bietet die Ampere Cloud native Plattform eine 2x -Leistung pro Kern als die X86 -Architektur. Darüber hinaus führen niedrigere Latenzunterschiede zu einer h?heren Konsistenz, einer h?heren Vorhersagbarkeit und besseren Reaktionsgeschwindigkeiten-k?nnen Sie SLAs erfüllen, ohne die Rechenressourcen erheblich überkonfigurieren zu müssen. Die vereinfachte Architektur von Cloud-nativen Plattformen bringt auch eine h?here Energieeffizienz mit sich, was zu nachhaltigeren Operationen und niedrigeren Betriebskosten führt.

Der Nachweis der nativen Effizienz und Skalierbarkeit von Clouds spiegelt sich am besten in hohen Lastperioden wider, z. B. in 100.000 Benutzern. Hier bringt die Konsistenz der Ampere Cloud Native Platform enorme Vorteile mit einem Preis/einer Leistung von 4,28-mal h?her als X86 in gro? angelegten Cloud-nativen Anwendungen und bietet dennoch Kunden-SLAs.

Im fünften Teil dieser Serie werden wir mit der Zusammenarbeit mit Partnern sofort mit der Nutzung von Cloud-nativen Plattformen abdecken und gleichzeitig Investitionen oder Risiken minimieren.

Bitte besuchen Sie das Ampere Computing Developer Center, um mehr verwandte Inhalte und die neuesten Nachrichten zu erhalten. Sie k?nnen sich auch für den Ampere Computing Developer Newsletter anmelden oder der Ampere Computing Developer Community beitreten.

Wir haben diesen Artikel in Zusammenarbeit mit Ampere Computing geschrieben. Vielen Dank, dass Sie die Partner unterstützt haben, die SitePoint erm?glicht haben.

Das obige ist der detaillierte Inhalt vonBeschleunigung der Cloud: Was zu erwarten ist, wenn Sie Cloud native machen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erkl?rung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Hei?e KI -Werkzeuge

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?e Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Die Verknüpfung der Entwickler zu Ihrer udemy?hnlichen Plattform Die Verknüpfung der Entwickler zu Ihrer udemy?hnlichen Plattform Jun 17, 2025 pm 04:43 PM

Bei der Entwicklung von Lernplattformen, die Udemy ?hneln, liegt der Fokus nicht nur auf der Qualit?t der Inhalte. Ebenso wichtig ist, wie dieser Inhalt geliefert wird. Dies liegt daran, dass moderne Bildungsplattformen auf Medien beruhen, die zug?nglich, schnell und leicht zu verdauen sind.

Kostengünstige Reseller -Plattformen für den Kauf von SSL -Zertifikaten Kostengünstige Reseller -Plattformen für den Kauf von SSL -Zertifikaten Jun 25, 2025 am 08:28 AM

In einer Welt, in der Online-Vertrauen nicht verhandelbar ist, sind SSL-Zertifikate für jede Website von wesentlicher Bedeutung geworden. Die Marktgr??e der SSL-Zertifizierung wurde im Jahr 2024 mit 5,6 Milliarden USD bewertet und w?chst immer noch stark.

5 Beste Zahlungsgateways für SaaS: Ihr ultimativer Leitfaden 5 Beste Zahlungsgateways für SaaS: Ihr ultimativer Leitfaden Jun 29, 2025 am 08:28 AM

Ein Zahlungsgateway ist ein entscheidender Bestandteil des Zahlungsprozesses, mit dem Unternehmen Zahlungen online akzeptieren k?nnen. Es fungiert als Brücke zwischen dem Kunden und dem H?ndler, über die Zahlung von Zahlungsinformationen und Erleichterung von Transaktionen. Für

Hurrikane und Sandstürme k?nnen dank des neuen Microsoft AI -Modells 5.000 -mal schneller prognostiziert werden Hurrikane und Sandstürme k?nnen dank des neuen Microsoft AI -Modells 5.000 -mal schneller prognostiziert werden Jul 05, 2025 am 12:44 AM

Ein neues Modell für künstliche Intelligenz (KI) hat gezeigt, dass die F?higkeit, wichtige Wetterereignisse schneller und mit gr??erer Pr?zision vorherzusagen als einige der am h?ufigsten verwendeten globalen Vorhersagesysteme

Neue Studien behauptet, AI 'versteht' Emotionen besser als wir & mdash; vor allem in emotional aufgeladenen Situationen Neue Studien behauptet, AI 'versteht' Emotionen besser als wir & mdash; vor allem in emotional aufgeladenen Situationen Jul 03, 2025 pm 05:48 PM

In einem weiteren Rückschlag für eine Dom?ne, in der wir glaubten, dass Menschen immer Maschinen übertreffen würden, schlagen Forscher jetzt vor, dass KI Emotionen besser versteht als wir. Die Forscher haben entdeckt, dass künstliche Intelligenz eine demonstriert

Ihre Ger?te füttern AI -Assistenten und ernten personenbezogenen Daten, auch wenn sie schlafen. Hier erfahren Sie, was Sie teilen. Ihre Ger?te füttern AI -Assistenten und ernten personenbezogenen Daten, auch wenn sie schlafen. Hier erfahren Sie, was Sie teilen. Jul 05, 2025 am 01:12 AM

Ob es ihm gef?llt oder nicht, künstliche Intelligenz ist Teil des t?glichen Lebens geworden. Viele Ger?te-einschlie?lich elektrischer Rasierer und Zahnbürsten-sind KI-betrieben.

Würde es uns unsere F?higkeit, für uns selbst zu denken, alles an die KI zu lagern? Würde es uns unsere F?higkeit, für uns selbst zu denken, alles an die KI zu lagern? Jul 03, 2025 pm 05:47 PM

Künstliche Intelligenz (KI) begann als Streben, das menschliche Gehirn zu simulieren. Inzwischen ist es in der Lage, die Rolle des menschlichen Gehirns im t?glichen Leben zu ver?ndern? Die industrielle Revolution hat die Abh?ngigkeit von manueller Arbeit verringert. Als jemand, der den Applikat untersucht

Fortgeschrittene KI -Modelle generieren bis zu 50 -mal mehr CO ₂ Emissionen als h?ufigere LLMs bei der Beantwortung der gleichen Fragen Fortgeschrittene KI -Modelle generieren bis zu 50 -mal mehr CO ₂ Emissionen als h?ufigere LLMs bei der Beantwortung der gleichen Fragen Jul 06, 2025 am 12:37 AM

Je pr?zise wir versuchen, KI -Modelle zu funktionieren, desto gr??er werden ihre Kohlenstoffemissionen - mit bestimmten Aufforderungen, die bis zu 50 -mal mehr Kohlendioxid erzeugen als andere, laut einer kürzlich durchgeführten Studie.

See all articles