• Liebe Community,
    Aufgrund des niedrigen Traffics im Forum haben wir uns dazu entschlossen, es nur noch im Lesemodus zu betreiben. Neue Kommentare sind also nicht mehr möglich, wohl aber das Lesen der bestehenden Foreninhalte als Archiv. Ihr könnt diesen Account auch auf unseren anderen Portalen (pcgameshardware.de, pcgames.de, buffed.de etc.) nutzen oder Euren Account löschen lassen. Wir bitten um euer Verständnis und danken euch für die vielen tollen Beiträge.“

HTC Glacier: Dualcore-CPU und bärenstarker Grafikchip

Ripcord

Bekanntes Mitglied
man stelle sich mal vor, die aktuelle hardware in smartphones würde schon in 32nm gefertigt wie es im desktopbereich schon einige zeit standard ist, dann könnte man noch viel mehr erreichen was die leistung/laufzeit betrifft.
 

Marketinghoschi

Aktives Mitglied
Naja, warten wir mal ab was die Hersteller am Ende daraus machen. Zahlenprotzerei bei Hardwaredaten hat sich schön öfter als Trugschluss herausgestellt.
 

Ronk

Mitglied
Ist das nicht eigentlich ein Armutszeugnis für Qualcomm? Der Snapdragon mit zwei 1,5GHz Kernen kommt nur knapp gegen den Hummingbird von Samsung mit nur einmal 1GHz an? Und die GPU beim Hummingbird ist sogar noch flotter?

Ich verstehe einfach nicht warum HTC so hartnäckig an Qualcomm festhält. Die liegen doch schon seit Jahren hinter der Konkurenz...
 

the_black_dragon

Bekanntes Mitglied
@Ronk

ähm die GPU ist knapp dahinter aber von der hat der snapdragon sicher nur EINE.....

CPU test ist garkein vergleich hier möglich, da GLBenchmark sicher nicht auf dualcore technologie ausgelegt ist udn somit nur die leistung eines kernes getestet wurde.....

die 1GHz CPU des bisherigen Snapdragon chips ist nur etwa 15% langsamer als die CPU im Galaxy S bei benchmarks aber dafür ist sie stromsparender!!!

für arbeitstiere bei den smartphones würde ich weiterhin auf die snapdragons setzen da sie einfach ausdauernder sind aber wer mobile spielekonsolen haben will der nimmt halt den chispatz aus dem Galaxy S
 

smurfy

Neues Mitglied
@the_black_dragon

Anscheinend sind dir nicht alle Details des Hummingbird-Chipsatz bekannt. Dieser ist aktuell schon in 45nm gefertigt, so wie die neuen Snapdragons jetzt auch. Dass die "alten" Snapdragons in 65nm im Desire/N1 stromsparender als der Hummingbird sein sollen, wage ich zu bezweifeln.

Wenn man die Akkulaufzeiten des Desire/N1 und dem Galay S vergleicht, so sieht man dass das Galaxy S länger durchhält. Das liegt zwar zum einen an dem größeren Akku (1500mAh gegenüber 1400mAh) und dem Super-AMOLED, aber zu einem teil sicher auch an dem moderneren Chipsatz. Deshalb verstehe ich dein "für arbeitstiere bei den smartphones würde ich weiterhin auf die snapdragons setzen" nicht. Denn bisher ist das Galaxy S als Arbeitstier besser geeignet, da es den moderneren Chipsatz hat, und somit länger durchhält.

Mit dem neuen Snapdragon holt Qualcomm hier auf und setzt auch auf 45nm. Und es ist auch richtig dass der Benchmark wohl noch nicht auf Dual-Core optimiert zu sein scheint. Denn sonst würde sich der neue Snapdragon im reinen CPU-Vergleich weit besser absetzen können, als ein Single-Core Hummingbird.
 

the_black_dragon

Bekanntes Mitglied
@smurfy

du scheinst aber auch eins nicht zu verstehen.....

nur allein die fertigungsgröße ist nicht ausschlaggebend für den stromverbrauch!!! genauso wie die sache mit der taktrate und leistung.....

die chips haben unterschiedliche architekturen und deshalb auch unterschiedliche stromsparmechanismen und da ist der qualcomm chip effizienter....

der 1GHz snapdragon zb ist vom stromverbrauch etwa gleich auf wie der 600MHz chip im Milestone..... aber leistungstechnisch trotzdem wesentlich schneller (nur CPU genommen) obwohl beide im 65nm gefertigt sind..... ausserdem braucht ja nicht nur die CPU sondern auch die GPU strom und da der Hummingbird da viel stärker ist wird die GPU wohl noch zusätzlich stromhungrig sein, was den geringeren verbrauch der CPU auch wieder zunichte macht.....

und GANZ AM ENDE der ganzen kette bei den geräten sind die hersteller noch dafür verantwortlich...... denn die müssen ihre software optimieren, damit der verbrauch weiter sinkt.....
 

smurfy

Neues Mitglied
@the_black_dragon

Ja, die Fertigungsgröße ist nicht alleine Ausschlaggeben. Da stimme ich dir zu.

Aber kennst du den wahren Stromverbrauch des Hummingbirds? Woher nimmst du die Annahme dass die CPU des Chipsatzes mehr Strom verbraucht als der alte Snapdragon? Wenn du mir eine Quelle für die bessere Effizienz des Snapdragons gegenüber dem Hummingbird gibst, glaube ich dir. Aber so lange du keine Quelle nennst, gehe ich davon aus, dass ein modernerer Chipsatz effizienter im Verbrauch ist. Die Akkulaufzeiten des Desire und des Galaxy S sind auch ein Indiz dafür.

Du hast auch recht dass die GPU des Hummingbird schneller ist und auch mehr Strom verbraucht. Aber du hast den Stromverbrauch als "Arbeitsgerät" verglichen. Benötigt das Galaxy S als Arbeitsgerät etwa seine volle GPU-Leistung? Nein, diese Leistung wird nur bei den Spielen benötigt. Es gibt auch so etwas wie einen Stromspar-Modus.
 

the_black_dragon

Bekanntes Mitglied
@smurfy

dass ich keine messwerte geliefert habe hat einfach den grund, dass ich von meiner eigenen erfahrung spreche :)

ich habe mal während einem benchmark verglichen welcher akku welches gerätes am meisten kapazität verliert, das auf die gesamtkapazität hochgerechnet und so selber mal den verbrauch einiger geräte gemessen unter android....

jedoch war das ein reiner CPU benchmark.... die genauen werte hab ich nicht mehr aber ich weiß, dass das desire z.B. am wenigsten strom verbraucht hatte knapp dahinter das Nexus one und X10....

und grob geschätzt 10% mehr strom als das Desire hat das Milestone von einem arbeitskollegen verbraten welches ja 45nm schon hat und auf 600MHz läuft.....

noch weiter hinten war das HTC hero mit dem alten MSM7200 das hat mal eben in der selben zeit 30% mehr verbraucht wie das Desire und wurde dazu noch richtig schön heiß...... ist aber leider schon nen paar monate her da ich das gemacht habe kurz nachdem ich das X10 hatte.....

nen hummingbird muss ich trotzdem zugeben konnt ich noch nicht selber testen aber ist ja ebenfaklls im 45nm gebaut und deshalb gehe ich davon aus, dass sich nicht GRAVIEREND was geändert haben dürfte aber ich lasse mich gerne überraschen :)

aber am ende is das eigentlich alles irrelevant denn für den enduser zählt die akkulaufzeit im verhältnis zur nutzung und nicht irgendwelche verbrauchsmessungen.....

und ganz ehrliche meinung von mir: da bin ich mit meinem X10 ultra zufrieden, da seit meinem P1 kein smartphone so lange im täglichen gebrauch durchgehalten hat..... Hero, X1, X2, Nexus one, iPhone 3G, samsung i8910 hab ich probiert oder selber im einsatz gehabt
 

Frankfurter Knackarsch

Aktives Mitglied
"Man stelle sich mal vor, die aktuelle hardware in smartphones würde schon in 32nm gefertigt wie es im desktopbereich schon einige zeit standard ist, dann könnte man noch viel mehr erreichen was die leistung/laufzeit betrifft."

Ein Desktop besteht ja nicht nur aus einer CPU noch dazu hat nicht jeder intel inside, AMD liegt aktuell bei 45nm, aktuellste Grakas mit RV870,GF10X Chips liegen noch bei 40nm. Im nächsten Jahr allerdings wird es interessant werden, dann sind die großen Auftragsfertiger TSMC (Qualcomm,ATI,Nvidia) und Globalfoundries (AMD,ATI) bei 28nm angelangt.
Intel wird indes bei glaube 22nm wieder die Nase vorn haben, Samsung/Hynix haben bereits dieses Jahr 20nm (Flash) bzw 30nm (DDR) erreicht.

"Ich verstehe einfach nicht warum HTC so hartnäckig an Qualcomm festhält. Die liegen doch schon seit Jahren hinter der Konkurenz..."

Ja das frage ich mich auch.
Ich könnte mir 2 Möglichkeiten vorstellen.
1.) Qualcomm könnte einen nicht unbedeutenden Anteil an htc-aktien besitzten
2.) Qualcomm handelt wettbewerbswidrig in dem sie ihr CDMA Modemmonopol ausnutzen und sie in Kombi mit den SoCs billiger verkaufen, ähnlich wie intel mit ihren Chipsatz+Atoms den Netbookmarkt leergefegt haben. Aber wenn ich mich recht erinnere hatte Qualcomm bereits sein Kartellverfahren und eine saftige Strafe erhalten.


"Der 1GHz snapdragon zb ist vom stromverbrauch etwa gleich auf wie der 600MHz chip im Milestone..... aber leistungstechnisch trotzdem wesentlich schneller (nur CPU genommen) obwohl beide im 65nm gefertigt sind....."

Der Prozess ist aber der entscheidende Faktor was Performance/Watt angeht.
Der Snapdragon scheint eher ein abgespeckter Cortex zu sein, reduzierte Befehlssätze etc, weshalb er weniger aufgebläht ist und Strom spart, dafür aber Einbußen bei der Leistung hinnehmen muß. TI hat lieber den Takt gedrosselt ist dafür aber beim vollen Cortex geblieben.
Mit dem Die-Shrink auf 45 nm ist das Performance/Watt Verhältnis aber verbessert worden, weshalb nun der volle Cortex bei 1 Ghz genommen werden kann.
 

smurfy

Neues Mitglied
@the_black_dragon

Jetzt hast du aber einen 45nm-Chip eines Herstellers (beim Milestone ist es ein "OMAP" von Texas Instruments) mit einem 45-Chip eines anderen Herstellers (Hummingbird von Samsung/Intrinsity) verglichen. Obwohl beide Chips und auch der Snapdragon im Desire/N1 auf dem Cortex A8 von ARM basieren, so können die ganz unterschiedliche Sromspar-Mechanismen haben. Daher sollte man nicht von einem Chip gleich auf einen anderen schließen.

Mir ging es ja auch gar nicht darum irgend ein Gerät schlecht zu reden. Es war eher die Aussage, dass die Snapdragons per definition stromsparender sein sollen als ein Hummingbird von Samsung, ohne eine Grundlage für diese Behauptung zu haben.
 

sr-ha

Mitglied
Ich verstehs auch nicht so ganz, warum HTC so an Quallcom festhält.

Und ich versteh auch nicht warum Quallcom so schlechte GPUs verbaut, wenn der neue schon schlechter als der im Galaxy S ist.

Warum setzen eigentlich so wenige (oder bis jetzt kenn ich keine außer Tablets) auf Tegra2?
 

the_black_dragon

Bekanntes Mitglied
@smurfy

war der OMAP aus dem milestone nicht auch von samsung genau wie der hummingbird? ich dachte das war eine weiterentwicklung? falls nicht dann sry für das missverständnis.....

falls doch, ist das worauf ich hinaus wollte, nur der vergleich zwischen 2 chips der selben generation..... und um zu zeigen, dass auch ein 65nm chip mit mehr leistung weniger verbrauchen kann als ein 45nmchip der niedriger getaktet und auch am ende weniger leistung hat.....

aber hast schon recht ohne echte professionelle messerte kann man da nicht wirklich vergleichen und ich glaube am ende spielt das, wie ich schon sagte, keine rolle, denn der kunde, der akkulaufzeit will, der kauf das gerät was ihm die meiste bietet :)

und in benutzung spielt meiner meinung nach immernoch das display die größte rolle und der CPU verbrauch ist in normaler nutzung eher nebensache..... bei aktivität habe ich beim X10 auch nur durchscnittlich 10% CPU aktivität laut System Panel und da dürfte der stromverbrauch nur einen bruchteil von dem ausmachen was das display verbrät....

wie gesagt am ende zählt alles zusammen und die gesamtlebensdauer und bisher hat mich da kein gerät so zufriedenstellen können (in der highend kategorie) wie das X10....

ma schaun vlt bekomm ich nen Galaxy ran als testgerät :)
 

smurfy

Neues Mitglied
@the_black_dragon

Chips bzw. SoCs, welche die Bezeichnung "OMAP ..." haben, stellt nur Texas Instruments her.
http://en.wikipedia.org/wiki/Texas_Instruments_OMAP
Das ist deren Bezeichnung für die SoCs, welche auf der ARM-Architektur basieren. Genau so wie auch die Snapdragons nur von Qualcomm kommen.

Mit dem Stromverbrauch bei den Displays hast du recht. Ich sehe mir beim Galaxy S unter Android als die Verbrauchs-Anzeige unter Einstellungen/Telefoninfo/Akkuverbrauch an, wenn der Akku leer ist. Wenn ich das Gerät viel benutzt habe, es also nicht nur im Standby und das Display somit auch An war, dann ist das Display immer mitunter der größte Verbraucher. Danach kommt dann GPS, wenn es verwendet wurde, und dann WLAN. Erst nach denen kommt dann mal das Android-System und die Anwendungen, die die CPU/GPU belastet haben.
 

pixelflicker

Bekanntes Mitglied
Also so wichtig ist die Grafikleistung nun auch nicht, oder? Wenn die eine ein paar Prozentpunkte weniger erreicht wird das wohl kaum ins Gewicht fallen. Beim PC braucht man auch nicht immer die teuerste Grafikkarte für 500 Euro.

Warum htc auf Qualcom setzt kann aber auch an solchen Punkten liegen wie bei AMOLED, das der andere Hersteller nicht schnell genug liefern kann z.B.
Also nicht immer gleich Verschwörungstheorien spinnen.
 
Oben