@isotopp Ach, der richtige Energiefresser ist AI und alles was GPUs nutzt.
So ein Eimer mit 8 großen A100/H100 drin hätte gerne knappe 10kW. Davon kriegst du 4 in ein Rack, dann kommt noch das Infiniband Geraffel für den Interconnect dazu, dann bist du bei nem 64 Knoten Cluster mit 512 GPUs mal eben bei nem Megawatt.
Das sind lustige Probleme, wenn man dafür ein RZ sucht. „Wir brauchen 50kW pro Rack“ - „Äh, wir haben unsere Infra auf 6kW pro Rack ausgelegt?“
@isotopp ich kann das Thema eh nicht ernstnehmen, solange man durch unsere größte Stadt eine neue Innenstadtautobahn baut, und alle die in der Stadt nicht mit dem eigenen Panzer unterwegs sind, als Minderwertige behandelt.
@isotopp Heilige Scheiße wie produziert der so viel Energie auf so kleinem Raum, könnten wir diese absurde Energiedichte nicht irgendwie für unsere Stromerzeugung in Deutschland nutzen? 🤡
@isotopp Alleine das DeutschlandRadio betreibt drei Sender a 500 kW nur für UKW. Das kommste im Jahr mit 4.5MWh pro Sender nicht hin. Ich wüßte gerne mal, wieviel Energie für DVB-T und Rundfunk bundesweit drauf geht.
@harkank@audin@isotopp «Drei Sender a 500kW» ist in der Tat harter Unfug. Leicht zu widerlegender harter Unfug. Ich weiss gar nicht, wie man auf sowas kommt, denn die Liste ist einfach zu finden: https://de.wikipedia.org/wiki/Deutschlandfunk
(1718.3kW - so you don't have to)
@nblr@harkank@audin@isotopp im Schnitt werden wohl 10kW Verstärkerleistung für 100kW ERP benötigt, also ~175kW Leistung für alle Sender zusammen. Grob also ein E-Auto beim Schnellladen oder ~15 gut gepackte Racks 😅
@isotopp Naja. Wenn ca. 80% des Internettraffics Video sind, kann man durchaus schliessen, daß ca. 80% des Energieverbauchs des Internets ohne Video-Streaming nicht nötig wäre.
Klar ist das vereinfacht. Kleinere Router verbrauchen sicher prozentual mehr Strom pro Bit, usw. Aber Pakete switchen braucht halt auch mehr Strom als No-Ops.
Der Punkt ist daß der Ausbau dem Demand folgt, und der Ausbau halt auch zu mehr Energieverbrauch führt. Wie bei Autobahnen.
@isotopp Anstatt herunzurechnen ob ne Cloud betreiben jetzt günstiger ist als hunderte lokaler Speicher muss man einfach mal eingestehen, daß die Zeit zurückdrehen nie so richtig geklappt hat.
@isotopp Das heisst, daß die einzig sinnvolle Frage hier ist, wie wir evtl. schaffen, mehr mit Caches zu arbeiten, weil die neben Latenz verbessern halt auch weniger Datenübertragung notwendig machen.
Aber wie Du schon beschreibst ist das bei Video, dem größten Verbraucher, schon ziemlich stark optimiert. Und die restlichen 20% werden auch nicht mehr ganz den Wumms machen.
Es hätte noch andere Vorteile, aber das ist nicht das Thema hier 😊
@jens@isotopp Nein! Das ist genau die Art von Quatsch über die gemeckert wird. Es sind nicht 80% "des Internettraffic" Videostreaming. Falls du das in irgend einer Statistik gesehen hast, dann ist die wenn pberhaupt nur für einen Privatkunden-Internetanschluss. Da wird dann völlig vergessen dass diese Statistiken für Server<->Server Kommunikation völlig anders aussehen weil Caches von CDNs eben nur ein Mal die Daten erhalten müssen und nicht pro Nutzer.
@basisbit Die Zahl sieht man in vielen Statistiken, und wird wohl eine Grundlage haben. Welche ist für mich nur zum Teil ersichtlich.
Die einzige, die ich mit grösserer Genauigkeit angeguckt habe, wurde an Peering-Knoten gemessen. Und das hat nicht viel mit Endnutzern zu tun.
Daneben trägt die Server-zu-Server Kommunikation nur bedingt zum Internettraffic bei, wenn man das Internet als Netz von Netzen versteht. Innerhalb des eigenen Netzes - eigentlich des eigenen AS - darf man..
@jens@isotopp "Wenn es kein Streaming gäbe", dann gäbe es eben mehr Nutzer von Kabel oder terrestrischer Übertragung und diese (deutlich ineffizienteren) Technologien müssten viel stärker ausgebaut sein. Möchte man auf der Ebene diskutieren, sollte man eher zum Schluss kommen, das Streaming Energie spart im Vergleich zu den Alternativen.
@jens Nein, genau das kann man eben nicht. Es ist ner Singlemode-Glasfaser scheißegal, ob da 1 GBit/s oder 400 GBit/s drüber gehen, und die Switches und Lasermodule an beiden Enden der Faser brauchen auch nicht 400 Mal so viel Strom um eine 400 Mal so hohe Übertragungsbandbreite erzielen zu können. Was den Stromverbrauch dagegen sehr stark hochtreibt, das ist die Existenz des Netzes als solches in der Fläche, und noch viel mehr die Existenz von kupferbasierten Technologien wie DSL oder DOCSIS.
@isotopp Hallo!
Das war doch mal eine sehr schöne Aufstellung von Faktoren, die beim Energieverbrauch von IT mitzudenken sind.
Der letzte Satz interessiert mich, da wir bei @ecobytes auch zivilgesellschaftliche Infrastruktur betreiben. Was bedeutet diese Schwierigkeit in der Umlage konkret?
Ich frage das, weil mir das auch aufgefallen ist. Gibt es da vllt. Materialien, wo ich mich dazu weiter belesen könnte?
Die Frage zu diskutieren ist fast eher müßig, denn wenn Du VMs laufen lassen musst für Deinen Anwendungsfall, dann brauchst Du eben eine dickere Maschine und dann ist das so.
Wir haben einen gebrauchten Fujitsu Futro als Home-Server. War ja schonmal „Geheimtipp” bei Heise. Aber der macht eben auch nur Samba für den Drucker/Scanner und HomeAssistant/MQTT. (Zwei selbständige, es gibt also nur Home Office.)
Aber „normale“ Leute kaufen sich halt so ein fertiges NAS, wenn überhaupt… in der Masse also irrelevantes Nerd-Thema.
Rechenzentren von außen auf Effizienz zu bewerten halte ich für schwierig.
Was allerdings ein Thema sein sollte, ist die Abwärme von Rechenzentren, aber auch ganz einfach Kühlsystemen in Supermärkten zu nutzen. In Dänemark machen Supermärkte das offenbar, und sparen damit im Winter 70% Heizenergie ein und heizen noch Nachbargebäude. (https://www.c-ober.de/blog/gebaeudetechnik/energiekosten-senken-supermarkt-beispiel-433509/ von 2016 bereits )
Rechenzentren müssten halt andere Gebäude heizen als sich selber.
@isotopp Hi Chris. Danke fürs die Artikel, ich habe damit meine auf älteren Erfahrungen (as in „traditional datacenters“) Sichtweisen überprüft und angepasst.
In meinem Bekanntenkreis hatten wir letztlich die Diskussion um den Vergleich Ressourcenkonsum + Emissionen bei Streaming vs. „Rundfunk“. Anstoß war der Trend bei ARD und ZDF zukünftig noch mehr auf Mediatheken und damit Steaming zu setzen.
@isotopp das trifft selbst für Livestreams zu. Das wird einmal in allen verfügbaren Bitraten encodiert, und dann kommt es für alle Clients aus dem Cache.
Und wie bei allen Caches, kann man die auch hierachisch verteilen und nahe am Kunden ein Cache Server in das Netz des ISPs stellen.
Bei uns gibt es nicht mal überall "Normales" Klingeldraht" Internet weil die Leitungen noch an Holzstäbchen in der Luft hängen !!!
Dass nennt man Digitalisierung 🤣
auf dem Land
@isotopp Selbst wenn Glasfaser bis zur Haustür verlegt ist, gibt es noch zwei Herausforderungen:
(1) Der Vermieter muss dann die Glasfaserleitung ins Haus hineinlegen lassen und von dort auch in alle Wohnungen (bei einem großen Gebäude sicher sehr aufwendig).
(2) In der Wohnung muss dann von der „Postdose“ wie sie früher hieß (Übergabepunkt) die Glasfaser bis zum Router verlegt werden, was mich vor große Herausforderungen stellen würde (kann ich nicht selbst). Ohnedies verbleibt 1 Flaschenhals
@isotopp 9W? Bei 100GbE kommt man auf etwas mehr als das (ganzes Modul), das ist jetzt aber für die Anbindung von Rechenzentren gedacht, und für zu Hause etwas leicht überdimensioniert. Die 1Gb-Laserdiode im FTTH-Bereich dürfte sehr deutlich unter 1W verbrauchen, für typisch 9W hältst du die ganze FritzBox Fiber mit allem am Laufen. Inklusive massivem DSP für das Gigabit-WiFi, das den größten Teil ausmachen dürfte.
@isotopp
Find die Rechnungen auch immer albern, wie viel Strom es verbraucht wenn man Netflix schaut, oder bei Google was sucht.
Also ob die Alternative Fernseher oder in die Videothek fahren oder in die Bücherei fahren sparsamer wäre 🤣
@isotopp
Tja, ich hätte auch gerne Glas. Liegt sogar bei uns im Keller. Ist aber ein Mehrparteienhaua, und zwar Altbau. Da geht das wohl aus diversen Gründen nicht, so wurde mir gesagt... Betrifft vermutlich einige in den größeren Städten @teezeh
Sehr guter Faden mit vielen guten Argumenten. Danke dafür! Aber dein Vergleich hinkt an einer Stelle. Kein Konsum ist immer noch besser und braucht weniger Energie.Der andere Punkt ist: Dein Bild ist oft nur die Idealvorstellung. Computer ziehen Infos bei der Nutzung, Apps und Webseiten baue mehrere Verbindungen auf als nötig und schicken mehr Ip Pakete als nötig über die Leitung. Dein Vergleich mit alter Hardware ist unfair. Denn eine 1TB Microsd mit opus < Spotify W/Use
@isotopp BTW, als Realitätsabgleich. Ich hab da jetzt so eine Glasfaser von der Tante T. Die krieg ich aber mit meinem stromsparenden OpenWRT-Router nicht ausgelastet, weil die Scherzkekse da nochmal PPPoE drauf getan haben. Brauche also vermutlich jetzt nochmal eine andere Kiste mit CPU-Bumms/Strom.
Will sagen: Wenn man will, wenn man sich wirklich anstrengt, kann man auch Glasfaser sinnlos Strom verbraten lassen. ;)
@isotopp Das Anzeigegerät würde ich nicht gelten lassen, weil auch ein Fernseher Strom braucht, der eine DVD anzeigen soll. Es sei denn, man liest ein Buch und schafft die Filmindustrie ab...
@isotopp Wo finde ich denn die eigentliche Studie? In diesem informationsfreien Hochglanz pdf steht, dass ein 4K Stream ein Vielfaches des Stroms verbrauchen würde wie ein 1080p Stream. Nehmen wir mal an, das ein 4K Stream etwa die doppelte Bitrate hat: wie kann der Stromverbrauch deutlich höher als doppelt so hoch sein? Wie kommen die auf diese Zahlen?
@isotopp In der Grafik ist der schwarze Balken bei 4k etwa 5,5x so breit wie bei 1080p. Wie geht das, wenn die Datenmenge aber nur 3x ist? Wie kommen die auf ihre Zahlen? Selbst wenn man davon ausgeht, das die Datenmenge mit der zahl der Pixel steigt: 4k hat 4x so viele Pixel wie 1080p. Wie kommen die auf 5,5x? Wo erklären die, wie ihre Zahlen zustande kommen?
@isotopp Aber wenn die Studie haltloser quatsch ist: warum wird sie dann zitiert? Und: wo finde ich die eigentliche Studie? Ich habe da nur so ein dünnes PDF gefunden.
@343max
Rechnen die einfach das Mehr an Wattverbrauch, von dichter gepackten OLEDs auf 65" Fernsehern, einfach auf die Bilanz um? Denn allen Werten liegt ja die selbe Diagonale zugrunde.
Aber was versuche ich da an Logik zu interpretieren 😆
Die Berechnungen, die zur Decodierung moderner Codecs notwendig sind, sind deutlich aufwändiger. Allerdings dürfte das nicht einfach nach oben skalieren, da ein Großteil der Geräte das in stromsparender Hardware macht als einfach in Software.
@isotopp ALso der Netflix Cache der in DUS2 steht (unitymedia/VF) ist ein ganzer 19" Schrank voll und der verbraucht bissl mehr als 2U/500W. Just my senf dazugegeben. ;-)
(von 3) Hier hatte ich eine für alle zugängliche und solide aufgestellte Statistik ausgewertet: Demnach sind 2,4% des End-Energie-Verbrauchs "Information+Kommunikation". Da sind die UKW-Sender, alle Fernseher, PCs, Rechenzentren, ... in DE mit drin. Das ist ganz überwiegend Strom, ganzjährig nahezu "Strich"(wieso wichtig? Leicht erneuerbar zu ersetzen!).
Verkehr, das sind 30% (!!), fast ausschließlich Sprit. Das ist ein Faktor 12 (!!) mehr..
@isotopp ich hätte Das bitte gerne verglichen mit dem dümsten offline fall. Der user fährt mit seinem 5t suv 59km zum Geschäft , der ihm eine dvd verkauft, die in china "gepresst", in Spanien verpackt, in chile gelagert und dann per flugzeug nach Spitzbergen geliefert wurde.
Und dann schaut sich der user in seinem homekino den film einmal an und schmeisst die dvd dann in den müll.
Oder so....
@isotopp Ich kann das alles nicht so richtig überblicken, wer da jetzt Recht hat. Aber ich kann mir aus dem Bauch heraus nur schwer vorstellen, dass es weniger Energie kosten soll, eine Bluray herzustellen, zu verpacken, in ein Lager zu fahren und später dann aus dem Lager zu mir nach Hause, als wenn die Netflix-Server für zwei Stunden 5 MBit/s mehr Upload haben. #Streaming#Energieverbrauch
@isotopp
Du hast es sicherlich schon gesehen, aber weil es so schön ist: Aus der Reihe vor 40 Jahren: die c't erinnert mit Kristian Köhntopp an den Beginn des Internets.
@isotopp wenn ich die Problematik richtig verstehe, bräuchte man nur einen Folgekosten-orientierten CO2-Preis. Dann könnte man sich die müßige Diskussion sparen und das ganze den Markt regeln lassen, oder?
Ich tippe, dass der CO2 Anteil an den Kosten hier geringer wäre als in anderen Lebensbereichen.
@isotopp Ein paar Film-Lobbyisten versuchen krampfhaft, den Energieverbrauch von Streaming schlecht zu rechnen. Und was kommt heraus? Ins Kino darf man nur zu Fuß gehen oder mit dem Fahrrad fahren, sonst ist es bezüglich Energieverbrauch schlechter. (Ob Energieverbrauch überhaupt ein sinnvolles Kriterium für die Entscheidung Streaming oder Kino ist, sei mal dahingestellt.)
@isotopp Einfach Videoabende veranstalten, dann schauen mehr Menschen auf dem selben CO2-Ticket. Und heizen im Winter die Wohnung durch Körperwärme. Eine Art Carpool für Videobits. ;)
@isotopp Mich würde vor allem auch der Vergleich mit anderen Distributionswegen interessieren, z.B. Netflix' ursprüngliches Modell "DVDs per Post verschicken". Ich vermute stark, dass Streaming hier sehr viel besser abschneiden würde als nahezu alle anderen Varianten.
@isotopp Moment, hatten wir das nicht neulich erst? Sogar mit leichtem SI-Präfix-Verwechsler? https://blog.fefe.de/?ts=9c9557b3
Spannend wie aus den 3g jetzt 100g wurden.
Add comment