Power Management und Strom/Energiesparen

Soft- und Hardware-bezogene Diskussion.
Benutzeravatar
mastastefant
Schnapsbar
Beiträge: 3856
Registriert: Sa Dez 04, 2004 1:00 pm
Kontaktdaten:

Power Management und Strom/Energiesparen

Beitrag von mastastefant » Do Okt 22, 2009 2:38 am

Nachdem das hier immer wieder in div. Threads auftaucht, mach ich dazu mal nen neuen auf (ich hoff es gab nicht schon einen dazu), hier aber mehr für konkrete Hardware, Tools und Zahlen als für Diskussion ums Thema allgemein.

Das wichtigste mal zuerst: Stromspar-Modi am Desktop-PC

Aus mir absolut schleierhaften Gründen sind zumindest bei XP, selbst wenn man die div. Cool+Quiet Treiber installiert, alle Stromsparmodi standardmäßig abgeschalten wenn mans net grad auf einem Laptop installiert, und es is net wirklich offensichtlich (find ich), wie man die aktiviert:

Desktop->Rechte Maus->properties->Screen Saver->Power Management:
Power Scheme auf Minimal Power Management oder Max Battery setzen (auch wenn man keine Batterie im PC hat; was immer da der Unterschied ist .. ).

Bei Vista und Win7 dürfts etwas anders gehn, weiß aber net ob dort standardmäßig die Stromsparmodi aktiv sind (glaubs zumindest bei Vista aber eher net).

Das Asus-Tool bei mir zu Cool+Quiet zeit nur eine Frequenz an, k.A. was das ist, denn Cool+Quiet regelt den Takt abhängig von der Auslastung für jede Core getrennt. Mit dem Nvidia System Monitor kann man sich den aktuellen Takt für jede Core sowie die div. Takte auf der GPU anzeigen lassen (GPU Graphics Core, GPU Shader Core, GPU Memory, .. ), auch wenn die Oberfläche (wie bei allen diese Mainboard-Monitore) definitv in die Kategorie 'unnötig unhandlich bis beschissen' fällt. Bei nem Idle-Desktop sieht man dann schnell ob Speed-Stepping aktiv ist..

Bei modernen Grafikkarten gibts so was ähnliches: Zumindest die Nvidia-Karten sollten 3 Modi haben: 2D, 3D und 3D-Performance (oder so).
Je nach Modi takten die dann runter, spart auch einiges. Das lässt sich allerdings nicht wirklich setzen, das macht anscheinend der Treiber/die Hardware automatisch. Mit RivaTuner kann man da ein bissl rumspielen. Bei ATI wirds wohl was ähnliches geben.

Meine Grafikkarte ist allerdings werksseitig übertaktet (Point-of-View Geforce260 Exo oder so) und gehört zu jenen, die anscheinend nen Bug in der Firmware haben und daher nicht vom 3D-Performance-Mode runtersteigen.
Zwar ist die Load relativ niedrig im Desktop-Betrieb, dadurch brauchts weniger Strom und der Ventilator ist relativ langsam und leise, läuft aber trotzdem immer mit vollem Takt. Lässt sich aber leider ohne Hersteller-Firmware-Fix (wenn überhaupt) nicht wirklich ändern, ne support-anfrage von mir diesbezüglich ist leider anscheinend ungehört verhallt..

Benutzeravatar
mastastefant
Schnapsbar
Beiträge: 3856
Registriert: Sa Dez 04, 2004 1:00 pm
Kontaktdaten:

Beitrag von mastastefant » Do Okt 22, 2009 3:17 am

Mal ein bissl was zum Stromverbrauch:

Hab mir mal ausgerechnet, ein Verbraucher, der 24/7 durchläuft, braucht pro Watt ~1€ pro Jahr bei 0.12€/kWh, bzw 1.22€ pro Jahr bei 0.14kWh (8.76kWh/Jahr pro Watt).

Mein Server mit einer alten AMD Duron 1.6Ghz CPU, PCI-Karte, 1.2Gb RAM braucht etwa 80W im Idle-Betrieb unter Linux. Mit Folding@home laufen sinds etwa +10W, beim Booten etwa 100W.
Ein AMD XP1800 1.6Ghz, Geforce 5200 kommt auf etwa 94W im Idle-desktop (linux), 100W unter Last, 1.6W abgeschalten.

Eine IDE-Platte schlafen legen bringt etwa 4.5W (vor etwa 1 Jahr gemessen).

Der Asus EEE Box (nicht das netbook, der Mini-PC) mit Intel Atom dualcore 1.6Ghz oder so + 2Gb RAM braucht im Linux-Idle Betrieb etwa 11W (elf, in worten :) ), etwa 14.5W mit 8% CPU und 100% WLAN Last (daten übers netz schieben), 13W mit Win XP Desktop Idle.

xDSL++VoIP Modem etwa 10W
Telefon+Fax Kombigerät auch etwa 10W
WLAN-Accesspoint zwischen 2.5W (Netgear WG602 oder so) und 5W (Buffalo oder Linksys mit OpenWRT Linux drauf).

Meine beiden 19" TFTs: je so ~30-35W
Mein alter Philips 19" CRT: fast 100W ...

Von meinen neuen Desktop-PC (AMD Quadcore 2.8Ghz, Geforce GTX260 übertaktet, +onboard Geforce aktiv, 4Gb DDR2 RAM, PCI Soundcard) hab ichs mir leider nicht aufgeschrieben, muss ich mal nachmessen, war aber schon eher beeindruckend v.a. ohne div. Stromsparmodi..
An der Steckdose kam ich allerdings nicht über 460W oder so soweit ich mich erinner, incl. Monitore und sonstigen Ramsch der dran hängt, dh. der Rechner kommt auch unter Last (FurMark,3DMark) nicht weit über 300-320W. Mehr als ein 400W Netzteil ist denk ich daher auch bei so nem Setup eher Luxus (hab jetzt ein 410W drin, keine Probleme), auch wenn man sehr kurze Spitzen nicht am Stromzähler sehn wird.

Unterschied Cool+Quiekt aktiv (4x 200Mhz) / nicht aktiv (4x 2.8Ghz): ~40W
Unterschied Grafikkarten-Takt mit RivaTuner händisch runtergezogen soweit möglich / übertaktet Idle / FurMark/3DMark Last: einiges, kann mich aber leider nicht mehr erinnern (etwa 80W sind da schon drin).

Gemessen an der Steckdose mit nem Conrad Stromzähler-Gerät. Wieweit das stimmt, sei dahingestellt, allerdings haben die in einem Test gar net mal so schlecht abgeschnitten. Wie immer bei Messtechnik sind die billigeren sonst meistens eher Zufallszahlen-Generatoren. Anscheinend machts nen Unterschied, was für ein Verbraucher da dranhängt, je nachdem haben die billigeren Messgeräte da Probleme (ein Laptop-Stromwandler dürft da z.B. probleme machen, weil der intern den Sinus zerhackt, pulst und recht-eckelt und eine entsprechend "eckige" Last am Netz erzeugt).

Benutzeravatar
mastastefant
Schnapsbar
Beiträge: 3856
Registriert: Sa Dez 04, 2004 1:00 pm
Kontaktdaten:

Beitrag von mastastefant » Do Okt 22, 2009 3:52 am

Mal was zu den Netzteilen:

ATX-Netzteile versorgen generell auch im Off-Zustand einen Pin mit +5V. Der dient um div Power-On-{Keyboard,LAN,Time,..} bereitzustellen, aber auch, weil der Power-Knopf nicht ein mechanischer Schalter ist (wie bei den alten AT-Netzteilen), sondern nur dem BIOS sagt, dass eingeschalten werden soll. Das zieht dann einen Pin vom Netzteil auf Gnd solang das Netzteil laufen soll, und für diese Standby-Schaltung brauchts etwas Strom.

Lt. neuer Regelung dürfen neue Netzteile nur mehr max. 2W im Off-Mode verbrauchen, in ein paar Jahren (weiß nimmer das genaue Jahr) dann nur mehr 1W.

Es gibt mittlerweile auch schon ein paar wenige 0W-Netzteile, die im Off-Mode wirklich keinen Strom ziehen.
Ist aber genaugenommen so nicht richtig: Die haben genauso ne Standby-Schaltung, nur 1) zieht die nicht vom Netz, sondern von nem Akku/Kondensator, der im Betrieb geladen wird, und 2) hat ne wesentlich strom-sparende Standby-Schaltung.

Wegen 2) wird aber wohl das Netzteil i.a. teurer sein, aber das heißt auch, dass 2a) Power-On-* nicht geht (darauf kann man als Privatanwender gern verzichten, große Firmen möchten aber gern PCs am Wochenende hochfahren remote, um Updates nicht in der Arbeitszeit zu installerein, bzw. bei kleineren Firmen um Remote-Desktops zur Verfügung zu stellen, ohne die Rechner durchlaufen lassen zu müssen; und Firmen-PCs gibts nicht wenig), und 2b) man spezielle Mainboards braucht, die mit solchen Netzteilen was anfangen können und man defakto derzeit nicht bekommt.
Es gibt 1 oder 2 Komplett-0W-PCs irgendwo, aber wegen 2b) kann man da defakto nix austauschen, das sind abgeschlossene Spezial-Anfertigungen.

Meine Meinung dazu (besonders für den Brett :) ):
Generell ist dieser ganze Standby-Verbrauch derzeit grad groß in den Medien, und wird gern groß hochgerechnet und gilt anscheinend so als das Green-IT Kriterium schlechthin.

Unterm Strich ist aber es echt komplett egal, ob der PC jetzt 0, 1 oder 2W im Off-Mode frisst, v.a. wenn der 40h und mehr in der Woche läuft, und dann vllt. erst länger On bleiben muss wenn Wake-On-LAN net get.
Nämlich einfach wenn man den Aufwand, den man hat, um von 1.5W auf 0.9W runterzukommen in Relation setzt dazu, dass man am Desktop einfach das CPU-Powermanagement per Default aktivieren und besser auffindbar machen könnte und damit einfach so mal 40W im Betrieb sparen könnte (ich bin mir ziemlich sicher, die meisten User haben keinen Schimmer, dass das nicht standardmäßig aktiv ist, sondern gehn davon aus, wenn auf der AMD Box C+Q draufsteht, wirds einfach immer aktiv sein), bzw. wenn man einfach mal die bereits bestehenden Stromspar-Mechanismen in OS, CPU und v.a. GPU endlich mal wirklich fehlerfrei zum laufen bringen würd, könnte man damit allein locker 80W und mehr zumindest auf meinem Setup sparen, ohne große Neuentwicklungen. Immerhin funktioniert Standby nun endlich mal bei mir, damit machts endlich Sinn, auch mal nur für ne halbe Stunde Pause den PC schnell in Standby zu setzen..
Als Realitätscheck verweis ich aber da wiederum nur kurz auf meinen Versuch, dem VLC das Stottern bei aktivierten C+Q auszutreiben: Die Antwort vom Entwickler war "Q+C, was ist das, und das soll bitte AMD im Chip/Windows im OS fixen" (jede andere Software schaffts allerdings es richtig zu machen ... ), die Antwort von den Usern ist: "Wenns mit C+Q nicht geht, dann schalt ma C+Q halt einfach wieder aus." Mein Workaround: "Mit Folding@home zumindest einen Core auslasten mit was zumindest halbwegs sinnvollem."
Und bei der GPU, auf die Frage warum der net in 2D runterschaltet, oder ob das überhaupt gehn soll, die Antwort: ".."
Und so schnell ist das ganze Stromsparen wieder für die Katz.

Und bevor ich wieder was zu Glühbirnen-Hamsterkäufen schreib, lass ichs hier mal gut sein (wobei ich nicht weiß, wieweit Energiesparlampen wirklich sparen, wenn man die Herstellung mit reinrechnet..).

Benutzeravatar
mastastefant
Schnapsbar
Beiträge: 3856
Registriert: Sa Dez 04, 2004 1:00 pm
Kontaktdaten:

Beitrag von mastastefant » Do Okt 22, 2009 4:23 am

So, nur noch ein paar Detail-Rand-Bemerkungen aus der IC-Ecke :)

Bei nem IC kommt der Energieverbrauch primär durch 1) Umschalten zwischen 0/1 bzw. 1/0 auf einer Leitung/Transistor und 2) Leckströme zu stande. 2) hat man immer im Betrieb und wird ein ziemliches Problem je kleiner die Strukturen.
Für 1) gibts 2 Quellen:
a) echte Berechnungen, dh. je mehr der Chip tut, desto mehr Strom brauchts.
b) das Clock-Signal. Das is ein groberes Problem als man glauben möcht, da das Clock-Signal sauber und möglichst gleichzeitig überall am Chip hinkommen muss. Da aber die arme Clock praktisch über ein Leiter-Netz praktisch jedes Latch auf dem IC treiben muss, brauchts da ziemlich was an Leistung, um noch steile Flanken zu bekommen. Heißt im Klartext, das Clock-Signal allein macht nen ziemlich fetten Anteil am Leistungsverbrauch aus (ich glaub, so 40% in der Gegend war da mal ne Zahl).

Deswegen machts Sinn, einfach runterzutakten und weniger oft die Clock umzuschalten.
Am besten natürlich, man schaltet einen Core komplett ab. Braucht aber dann mehr Zeit, den wieder aufzuwecken wenn man ihn wieder braucht.

Noch besser ist allerdings, bei weniger Spannung zu arbeiten, da die quadratisch in die Leistung eingeht (das is wohl der Grund, warum Modems und co so viel Leistung ziehn, das POTS (Plain-Old-Telephone-Service, heißt wirklich (mitterweile) so) läuft da bei 40V Pegel. Sollte man daher möglichst nicht am LAN-Stecker anstecken, das hat 5V Pegel ..). Allerdings heißt weniger Spannung auch höhere Fehleranfälligkeit vom Signal..

Bei Multi-Core CPUs ist man primär einfach durch die Wärmeentwicklung im Takt beschränkt, deswegen sind die Quad-Core und co nie über 3Ghz. Die meisten bestehenden Apps brauchen aber kaum mehere Cores, sondern eher sequenzelle Logik, also viele Ghz.
Deswegen geifen die neuen Intel-CPUs ziemlich tief in die Trick-Kiste und können schon selbst ihr 'Wärme-Budget' verwalten: wenn ein Core grad nix zu tun hat, wird der abgeschalten. Dadurch darf dann ein anderer Core mehr Wärme produzieren, und wird dann einfach bei Bedarf entsprechend auf über 3Ghz übertaktet..
Wenn ich mich nicht irre, dürfen sich die CPUs dann auch vom Mainboard eine Versorgungsspannung zwischen 1.0 und 1.2V selbst wünschen, können damit auch besser die Leistung regulieren.
Heißt dann wohl aber auch, dass diese CPUs dann auch wenn nicht alle Cores ausgelastet sind wesentlich öfter ihr Wärme-Budget ausreizen können und daher der Lüfter viel zu tun bekommt ..

Benutzeravatar
sAik0
Beiträge: 1505
Registriert: Mo Nov 29, 2004 1:14 am
Wohnort: Klosterneuburg
Kontaktdaten:

Beitrag von sAik0 » Do Okt 22, 2009 4:54 pm

Alter Schwede. Get a Life!

To do is to be (Karl Marx)
To be is to do (Jean Paul Sartre)
Do be do be do (Frank Sinatra)

Benutzeravatar
version4x
Beiträge: 2531
Registriert: So Dez 05, 2004 1:00 pm
Kontaktdaten:

Beitrag von version4x » Fr Okt 23, 2009 8:07 am

sAik0 hat geschrieben:Alter Schwede. Get a Life!
ich hab mir auch schon überlegt, ob ich mir den thread ausdrucken soll und im bus lesen ;)
......!

Benutzeravatar
Brett
Beiträge: 11840
Registriert: Mi Dez 29, 2004 1:00 pm

Beitrag von Brett » Fr Okt 23, 2009 9:29 am

masta_stefant hat geschrieben:Unterm Strich ist aber es echt komplett egal, ob der PC jetzt 0, 1 oder 2W im Off-Mode frisst, v.a. wenn der 40h und mehr in der Woche läuft, und dann vllt. erst länger On bleiben muss wenn Wake-On-LAN net get.
Welcher ist denn DER PC? ;)

Wenn man den Stromverbrauch bewerten will, brauchts ein Lastkollektiv, so im Sinne von P_quer=summe(Pi*ti)/tges.
(mit i für on/off/stby, so im Groben)

Wie sinnvoll eine Einsparung in welchem Betriebsmode ist, zeigt sich dann eh.

Und natürlich braucht man die Daten vom angepeilten Durchschnittskonsumenten des jeweiligen Produkts.
(Beispiel: Es mag TV-Panels geben, die das eine Mal in einem Großraumbüro nur wöchentlich irgendwelche Präsentationen abspulen und das andere Mal bei einer Pensionistin vom Hahnenschrei bis zum Einbruch der Dunkelheit laufen.)
Ebenso mag es Single-Haushalte geben, wo der/die PC(s) mehr Strom fressen als Herd, Waschmaschine und Geschirrspüler zusammen. :uhoh:

Und eine Aussage, die man wohl noch machen kann, ist: Wenn es zu zwei Beobachtungszeitpunkten einmal doppelt so viele Geräte gibt, als das andere Mal, dann sollte im allgemeinen Interesse der Stromverbrauch auch doppelt so ernst genommen werden.
Wenn du mich fragst, ists schon nicht so falsch, dass deine EEE Box und div. andre low-performance-Massen-Dinger à la Netbook ihre Slimdiät machen mussten.

Dass solche Dinge dann zum Politikum werden, wundert mich pers. wenig - die Frage ist immer, wie intelligent Regulierungen, Richtlinien usw. angegangen werden. ;)
Forma, Eier Gnodn.

Benutzeravatar
Brett
Beiträge: 11840
Registriert: Mi Dez 29, 2004 1:00 pm

Beitrag von Brett » Fr Okt 23, 2009 9:43 am

masta_stefant hat geschrieben:(wobei ich nicht weiß, wieweit Energiesparlampen wirklich sparen, wenn man die Herstellung mit reinrechnet..).
Total Lifecycle Assessment ist das Stichwort.
Ich kann da nur die Evaluierungs-Seite eines Profs. empfehlen, der sich mit genau diesen Themen hauptberuflich befasst:

http://www.ecodesign.at/assist/assistent?lang=de

Ist recht interessant, nimm mal dein Lieblingsprodukt, von dem du einige Daten kennst oder schätzen kannst und stecks da rein.
Forma, Eier Gnodn.

Benutzeravatar
mastastefant
Schnapsbar
Beiträge: 3856
Registriert: Sa Dez 04, 2004 1:00 pm
Kontaktdaten:

Beitrag von mastastefant » Fr Okt 23, 2009 2:18 pm

Ich find diese Asus EEE Boxen und Co auch ziemlich genial, sowohl von der Größe, Stromverbrauch und nicht zuletzt damit auch Lautstärke.. :)

Allerdings darf man net den Fehler machen, GHz pro Watt oder so zu vergleichen.. Der Witz warum moderne CPUs mit 2.8Ghz so fix unterwegs sind ist hauptsächlich die Architektur, nicht so sehr die Clock. Da ist einfach massig Hardware drin, um möglichst viele, auch komplexere, Befehle mit möglichst wenig Takten durchzuführen.. Die Atom-CPUs sind relativ einfach gestrickt, deswegen geht da trotz 1.6Ghz verhältnismäßig weit weniger weiter. Wenn man also wirklich Rechenpower satt braucht, und nicht nur einen Rechner, der alle paar sekunden mal ein Icon am Desktop blinken lässt, und Rechenleistung pro Watt vom Gesamtsystem sich anschaut, dann stehn die gar nicht mehr so gut da, da ist man mit einem Intel oder AMD schon wieder besser dran.

Wobei, Benchmarks sind da immer so ne Sache :) Moderne CPUs und GPUs sind schon so komplex, dass einzelne Applikationen sich ganz anders verhalten können (z.b. wenn die relativ wenig Sprünge im Code ausführen, dann brauchts da keine ausgefeilte, stromfressende Branch-Prediction, sondern eher flotte Arithmetik-Units :)

Zu DER PC:
Natürlich machts da an Unterschied, ob man da Oma's PC anschaut, der alle 2 Wochen mal angedreht wird, oder einen Office-PC, der genau 40 Stunden die Woche läuft und für Excel, Outlook und co verwendet wird, oder einen Server, der 24/7 Simulationen rechnet.

Im ersteren Fall macht ein 0W-PC durchaus sinn, allerdings nicht so wie sie jetzt gebaut werden, weil da kann man genau gar nix austauschen/aufrüsten/reparieren mit Standard-Komponenten, da brauchts erst mal Standards, oder noch besser: einen Standard.
Bei Servern gelten sowieso ganz andere Maßstäbe, je nachdem was der tun soll.

Bei Standard-Office PCs (Wenn man net grad von einem CAD-Arbeitsplatz o.ä. ausgeht), der die meiste Zeit bei 20-30% CPU-Last läuft, machts aber einfach mehr Sinn, irgendwas bereits existierendes hinzustellen, dass z.B. nur 60W statt 100W frisst (bzw. Stromsparen aufzudrehn), und dadurch über 40 Stunden 40W zu sparen ( = 1.6kWh/Woche gespart), statt in 0W netzteile statt 2W Netzteile zu investieren (2W*128h = 0.26kWh/Woche gespart). Erst wenn solche PCs selbst mal unten sind bei 20W Stromverbrauch, dann machts überhaupt erst Sinn, über 0W-Netzteile nachzudenken (40h/Woche * 20W = 0.8kWh/Woche Verbrauch, + 0.25kWh/Woche im Off-Modus).
Und ich behaupte mal, solche Office-PCs machen einen recht großen Anteil der Desktop-PCs aus.

Server- und Multimedia-Center und Embedded-CPUs lass ich hier sowieso außen vor, da gibts andere Kriterien, und Multimädi- und Embedded-Kasteln haben sowieso normalerweise kein ATX-Netzteil. Dort machts wieder weit mehr Sinn, die wirklich auf 0W abzuschalten, bis auf einen Stütz-Akku für Uhrzeit und Pwr-Knopf-Schaltung. Korrekterweise muss man dann aber auch reinrechnen, dass der im Betrieb dann geladen wird.. Das könnte wegen den dabei entstehenden Verlusten dann vllt sogar wieder ineffizienter sein als gleich 0.2W zu verbrauchen, die dann im Vergleich zu, hausnummer, der Straßenbeleuchtung die in Klbg immer wieder mal den Tag durchleuchtet, wirklich wurscht sind ..

Allerdings: bei 20W-PCs kann man sich ziemlich abschminken, dass die gute Performance erzielen.. Problem sind hier die Leckströme und die Clock, die machen einen ganz wesentlichen Anteil am Stromverbrauch aus, und hängen schlicht von der Größe des Chips und der Strukturgröße ab. Und mit kleinen ICs kann man keine CPU baun, die mit einem Core5 mithält. Da helfen dann nur Multicore-CPUs, bei denen man ganze Cores komplett vom Strom und Clock trennt. Damit man aber was davon hat, muss dann zumindest die Core, die aktiv bleibt, eine relativ einfach gestrickte sein. Und damit man Performance durch zuschalten bekommt, muss die Software die Cores nicht nur ausnutzen, sondern auch skalieren.. das sind zwei verschiedene dinge, und nicht leicht zu erreichen.
Ich könnte mir vorstellen, dass man da so was ähnliches wie bei der Cell-CPU oder dem (mittlerweile anscheinend eingestampfen) Larrabee macht: man hat verschieden komplexe Cores drauf, und schaltet dann allerdings die Komplexen ab, und lässt den Desktop nur auf einer 'Hilfs-CPU' laufen. Mir ist allerdings nicht bekannt, das so was gemacht wird (bei Desktop-CPUs), und ein Windows7-Desktop ist im 'Idle' (hust..) ohnehin schon ein ziemlicher Resourcen-Fresser (bei Multimedia-Cores z.b. für Video-Player, schauts schon wieder anders aus.. die haben z.b. einen einfach x86-Core z.b für die App, und eigene Cores speziell für Video-Decoding/Encoding; allerdings läuft auf denen auch kein Windows7).

Was Stromsparen betrifft, grad im Embedded Bereich, gibts da bei uns (Tech.Inf) auch eher esotherische Ansätze :) Dort werden zb. Compiler gebaut, die neben Performance und Code-Size (bei Embedded recht wichtig) auch auf Strom-Verbrauch optimieren. Das soll gehn indem man die Instructions so anordnet, dass die CPU möglichst wenig bits beim abarbeiten umschalten muss (da beim umschalten der strom draufgeht). Ob das aber irgendwas auch bringt, oder wie man das überhaupt macht bei den komplexen Cores, ist allerdings, sagen wir mal, noch umstritten .. :)

Als kleine Anektdote am Rande: In der Hardware-Software-Codesign-LU hatten wir die Aufgabe, einen kleinen RISC-Core auf einem FPGA mit spezieller Logik zu erweitern, um Fingerprint-Erkennung zu beschleunigen. Bewertungs-Kriterium war neben Anzahl Transistoren der Logik auch der Stromverbrauch.
Allerdings war das so ein richtig großer, neuer FPGA, auf dem hat unser Core+zusatz-Logik grad amal so 2-3% verwendet, was auf dem da war.. Die Simulation hat dann immer die selbe Leistung ausgespuckt, weil der FPGA einfach allein durch Leckströme wenn er nix macht bereits so 7A bei 3.3V zieht, da fällt so ein bissl Rechnen gar net ins Gewicht :) Das Bewertungskriterium wurde dann stillschweigend fallen gelassen ..

Benutzeravatar
florianklachl
Beiträge: 5904
Registriert: Sa Nov 13, 2004 1:00 pm
Kontaktdaten:

Beitrag von florianklachl » So Okt 25, 2009 3:31 am

Mich ärgert es immer, wenn die CPU plötzlich auf 100% Leistung geht, wenn ich im Word mit der Maus den Scrollbalken hin und herbeweg. Das muss irgendein Pfuscher programmiert haben. Mich stört dabei weniger der Energieverbrauch (jetzt beginnt eh die Heizperiode), sondern dass jedesmal der Ventilator blöd herumburt.
http://www.proreligion.at/

Sei immer du selbst. Außer du kannst ein Einhorn sein, dann sei ein Einhorn!

Antworten