• Liebe Community,
    Aufgrund des niedrigen Traffics im Forum haben wir uns dazu entschlossen, es nur noch im Lesemodus zu betreiben. Neue Kommentare sind also nicht mehr möglich, wohl aber das Lesen der bestehenden Foreninhalte als Archiv. Ihr könnt diesen Account auch auf unseren anderen Portalen (pcgameshardware.de, pcgames.de, buffed.de etc.) nutzen oder Euren Account löschen lassen. Wir bitten um euer Verständnis und danken euch für die vielen tollen Beiträge.“

Samsung i8910 HD: Erstes Firmware-Update für 2010 angekündigt

F

Ffm Knackarsch

Guest
"Die Samsung Mitarbeiter sollten sich einfach mal an die Optimierung setzen"
Seltsam, derartige Formulierung hab ich schon öfters von einem gewissen Handy Expert Profi gelesen. Aber vom aufschnappen und Nachplappern wirds auch nicht richtiger.

Technik und Englisch scheint nicht deine Stärke zu sein oder? Denn dann hättest du deinen Wikiauszug, der nicht mal ein konkretes techn. Dokument, sondern lediglich eine Firmenbeschreibung über Imagination Tech. ist, leicht mit mittelstufenenglisch korrekt Auffassen können.

PowerVR ist ein Teil von Imag. Tech. welche HW und SW für 2D,3D rendering entwickelt und Video en-/decoding.
Heißt, sie stellen nicht nur Grafikchips sondern auch andere Produkte für verschiedene Einsatzzwecke her zB Software für Videoen-/decoding. Kleiner aber feiner Unterschied.
Daimler baut Autos und indirekt auch Flugzeuge, behauptest du etwa auch du könntest mit einem Mercedes auch fliegen?

Da überschätzt du den Grafikchip, im Mobilbereich versteht er nur OpenGL und das kommt leider seltener zum Einsatz als du denkst,
Opera, Touchflo,Sense UI wären die bekanntesten Programme und theoretisch sollten auch Spiele darauf setzen, THEORETISCH,praktisch fehlanzeige, siehe Asphalt4. Nur das Iphone macht von der GPU reichlich gebrauch.
Filme mit Grafikchipunterstützung kann noch nicht mal dein PC, es sei denn du hast die allerneuste ATI ab 57XX mit DirectX11 oder NVidia Cuda/DX11 Grafikkarte, was ich nicht glaube, wie kommst du dann darauf, daß das ein Handy könnte? Träum weiter oder lies duch schlau, OpenCL und DirectX11 bei Wiki kann dir helfen.

mfg F-K
 
A

Anonymous

Guest
"Filme mit Grafikchipunterstützung kann noch nicht mal dein PC, es sei denn du hast die allerneuste ATI ab 57XX mit DirectX11 oder NVidia Cuda/DX11 Grafikkarte"


Filme oder Filmen?

Weil Filme gehen sehr wohl mit GPU unterstützung.
 
J

Jax667

Guest
Oh man...dein Text liest sich erstens als wärst du beleidigt wie ein 10 jähriges Kind und zweitens bin allem Anschein nach nicht ich derjenige, der wenig Ahnung von Technik hat.

Sonst würdest du dieses seltsame Mercedes-Beispiel nicht als Vergleich heranziehen oder behaupten, dass man erst mit einer Ati Radeon der fünften Generation Anspruch auf eine Unterstützung bei der Videowiedergabe hat.
Nur um eines richtig zu stellen: Grafikprozessoren werden schon seit jeher für die Videowiedergabe und -aufnahme verwendet und ohne sie wäre ein flüssiges Abspielen von Videos gar nicht möglich, es sei denn in sehr geringer Qualität (http://de.wikipedia.org/wiki/Grafikkarte).

Etwas anderes hatte ich nicht über Powervr Chips gefunden und wenn ich einen Wikipedia Artikel über die PowerVR Abteilung von Imagination Technologies heranziehe, in dem es heißt, dass diese Hardware- und Software-Lösungen für das 2D/3D Rendering als auch für die Videoaufnahme und -wiedergabe erstellt, dann hätte man sich natürlich denken können, dass auch der PowerVR SGX 530 Chip etwas damit zu tun hat.
Homepage:
http://www.imgtec.com/index.asp

Du hättest zumindest googeln und dich über Grafikkarten und deren Verwendung infomieren können, im Speziellen über den SGX 530 Chip. Natürlich unterstützt auch dieser Grafikchip den Hauptprozessor in allen Belangen, selbst bei der Musikwiedergabe. Was glaubst du denn, warum Grafikchips in Handymodellen eingebaut werden? Sicherlich nicht, weil sie Open GL ES 2.0 unterstützen und nur für 3D Anwendungen wie Spiele geeignet sind, sondern sie unterstützen auch den Hauptprozessor beim Fotografieren, bei der Videoaufnahme und Videowiedergabe und in vielen anderen Bereichen.
Der Nvidia Tegra Grafikchip zum Beispiel wird in Handys und Netbooks eingesetzt und ist auch in der Lage 720p Videos aufzunehmen und wiederzugeben (http://www.nvidia.de/page/handheld.html). Ohne ihn wären die Prozessoren dieser Geräte alleine dazu nicht fähig.

Im Übrigen ist auch der PowerVR SGX 530 sehr wohl in der Lage 720p Videos aufzunehmen und auch ohne ihn wäre die 720p Videoaufnahme des Samsung I8910 HD gar nicht möglich, denn der Prozessor leistet nämlich wie ich bereits erwähnt habe, nicht sonderlich viel bei der Aufnahme.
Nachzulesen ist das zum Beispiel hier:
http://www.beyond3d.com/content/news/711
http://www.design-reuse.com/news/14978/imagination-reveals-extended-powervr-sgx-graphics-video-core-family.html

Zuerst informieren, dann schreiben.

Ich weiß gar nicht, was der Digital Signal Prozessor (DSP), der unter anderem für den Dolby Virtual Sound 5.1 auf dem I8910 HD zuständig ist, mit der Videoaufnahme zu tun hat. Das hast du wohl verwechselt (http://de.wikipedia.org/wiki/Digitaler_Signalprozessor). Wichtiger ist der Image Signal Prozessor (ISP), der zusammen mit dem CMOS Chip für Fotos und Videos zuständig ist.
Nachzusehen hier:
http://www.elektronikpraxis.vogel.de/themen/hardwareentwicklung/bildverarbeitung/articles/123980/
http://www.utdallas.edu/~nxk019000/ieee-sp/03-06-08%20seminar.pdf

Ich frage mich überhaupt, warum du dich derart persönlich angegriffen fühlst. Ich beziehe mich auf unvollständige Arbeit seitens Samsung und schreibe von der HD Videoaufnahme des I8910 HD, welches nach wie vor nicht ausgiebig genutzt wird. Es gibt Programme, welche die Nutzung der CPU aufzeichnen und bei der Videoaufnahme werden nur 30 bis 40 Prozent genutzt. Rein objektiv lässt sich damit behaupten, dass bessere Ergebnisse in der Videoaufnahme erzielt werden können, wenn die Ressourcen anständig genutzt werden.

Ich weiß auch nicht, welcher Handy Expert Profi erwähnt hat, dass Samsung bei der Firmware nachbessern sollte, aber er hat Recht und tausende andere User auch. Ich schnappe nichts auf und plappere nichts nach und wenn ich das tue, dann wenigstens richtige Tatsachen, denn anders als du habe ich mit weder mit Technik, Englisch und im Übrigen noch mit der Rechtschreibung Probleme.

Ich bin hier für eine sachliche Diskussion, brauchst also nicht auf mich sauer sein. Ich bin ja auch nicht sauer auf dich, obwohl du schlicht falsche Tatsachen niederschreibst...




MfG Jax
 
F

Ffm Knackarsch

Guest
@jax667
Ich hatte eigentlich nicht die Absicht dich persönlich anzugreifen, ich kenne dich ja nicht und hab auch kein Problem mit deiner Person, nur deine "Argumentationweise" und die Qualität deiner Beweise und dann deine kurzsichtige Schlußfolgerung nach bester Bildlesermanier, der Hersteller wäre daran Schuld, ging mir halt gegen den Strich und tut es jetzt auch wieder.

Zuerst Respekt, daß du dir soviel Mühe machst und dich damit auseinandersetzt, scheinbar hast du dir ja echt den Ar*** aufgerissen.
Nur leider, die Mühe hättest du dir komplett sparen können, wenn du einfach mal einen Blick auf das Datenblatt des TI OMAP 3430 Chips riskierst, wo alles drin steht was der Chip letztendlich leisten kann.

Http://focus.ti.com/general/docs/wtbu/wtbuproductcontent.tsp?contentId=14649&navigationId=12643&templateId=6123

Das sollte diese Diskussion eigentlich überflüssig machen, da eine natürliche Grenze angegeben ist, Zitat:
"With the advanced multimedia capabilities of the OMAP3430 a multi-standard DVD-quality camcorder can be added to a phone for the first time"
Das sagt auch die PDF dazu, SD/[email protected], kein HD? Nanu?
Aber ich muß auch zugeben, daß ich nicht wußte, daß der PowerVR SGX 5er Serie schon OpenCL fähig ist, also theoretisch auch für Videobeschleunigung geeignet, jedoch für den Mobilenbereich irrelevant ist. Es sind lediglich 2D,3D Beschleunigung angegeben und das liegt daran, daß Mobile Betriebssyteme nur OpenGL ES,Direct3DM und nicht mit OpenCL (Desktop) kompatibel sind und daher nix mit Videobeschleunigung zu tun haben. Oder denkst du der VideoCodecchip ist nur zur Dekoration da?

Der Vergleich war doch passend.
Du unterstellst dem Grafikchip CPU ähnliche Fähigkeiten, Musikwiedergabe??? *Rofl*
Das könnte evtl bald im Desktopbereich zutreffen aber im Mobilenbereich? Wer weiß.

Was willst mit dem Wikiartikel zur
GrafikKARTE, Betonung liegt auf KARTE !!! beweisen?
Eine Karte ist etwas größer und hat auch ein bischen mehr Zeugs drauf als nur einen Grafikprozessor, wie Bspw. einen extra DSP für Videocodecs zur Videobeschleunigung. Ich denke du meintest sicher diesen Artikel:
Http://de.wikipedia.org/wiki/GrafikprozessorVideobeschleunigung kann höchstens in Zusammenhang mit CUDA,STREAM, OpenCL und DirectX11 erwähnt werden.
Apropos DSP, wo ist da jetzt der Fehler? Hast du überhaupt den Wikiartikel dazu gelesen geschweige verstanden? DSP ist bloß ein Überbegriff für Zweckgebundene spezifische Chips. Es gibt für allesmögliche DSPs wie Videocodecs, Sourroundeffekte, der ISP ist auch bloß nur ein Name für den DSP für Fotokram.

"Ich beziehe mich auf unvollständige Arbeit seitens Samsung und schreibe von der HD Videoaufnahme des I8910 HD"
Du verlangst was nicht mal Copperfield könnte, einen Corsa in einen Ferrari umwandeln. Milstone, Satio,Palm Pre, N900, sie alle haben den selben Chip und >5MP Kameras und können nicht mal [email protected], Samsung holt als einziger HD aus dem Ding heraus und anstatt das anzuerkennen wirfst du unvollständige Arbeit vor? Man kann dir nur techn. Hilflosigkeit vorwerfen.
Und, daß der CPU nicht am Anschlag ist, ist für dich ein Problem? Du hast den Sinn an der Sache, daß der CPU entlastet wird, einfach nicht verstanden, das ist dein Problem. Dann rate ich dir den Coreplayer zu benutzen, der quält ausschließlich den CPU, vielleicht bist du dann zufrieden, wenn der CPU @100% und deine HD Videos erbärmlich ruckeln und zuckeln.

Mfg FK

Ps: wußte leider nicht mich freundlicher auszudrücken, wollte klartext sprechen.
 
J

Jax667

Guest
@Ffm Knackarsch

Ich respektiere deine Meinung und du scheinst dich etwas mit Technik zu beschäftigen, aber hier hast du Unrecht.

Ich wiederhole:
Grafikkarten werden seit jeher für die Wiedergabe und Aufnahme von Videos benötigt, sonst wäre z.B. ein flüssiges Abspielen von Videos nicht möglich.

Hast du überhaupt einen PC oder Notebook mit Prozessor und Grafikkarte? Du argumentierst jedenfalls nicht wie jemand, der sich mit diesen Dingen auskennt. Hast du schon mal den Treiber deiner Graikkarte deinstalliert und probiert auf z.B. Youtube ein HD Video anzusehen? Ruckelt? Wieso?
--> Weil die Grafikkarte für das Bildausgabe zuständig ist und du ohne sie nichts auf deinem Monitor sehen könntest. Ohne Grafikkarte kann man gar nicht flüssig arbeiten, selbst das Surfen wird zu einer Ruckelorgie.

Den Wikipedia Artikel habe ich verlinkt, damit du erkennen kannst, dass der Prozessor immer Daten an die Grafikkarte weiterleitet und diese die Daten für den Monitor aufbereitet. Du hast schließlich behauptet, dass erst eine Radeon der fünften Generation die CPU bei der Videowiedergabe unterstützt. Ist zwar ein anderes Thema, aber auch hier liegst du falsch und ich wollte das berichtigen. Du hättest den Artikel zumindest überfliegen können:
http://de.wikipedia.org/wiki/Grafikkarte#Softwareprobleme_mit_Grafikkarten

Du scheinst nicht richtig verstanden zu haben:
Beim OMAP 3430 geht es um den 600 MHZ Prozessor, nicht um den SGX530 Grafikchip, der zusätzlich zu dem Hauptprozessor existiert. Denn nur letzterer ist in der Lage HD Videos aufzunehmen und wiederzugeben. Auch das habe ich in meinem letzten Text erwähnt. Die Verlinkungen hättest du auch überfliegen können, denn ich muss jetzt hier erwähnen, dass 720p die maximale Auflösung bei der Videoaufnahme darstellt und das ein Grund sein könnte, warum sich kein anderer Hersteller daran gewagt hat. Außerdem können sich die SGX530 Chips auch untereinander unterscheiden und so kann es sein, dass der Chip, der auf dem Palm Pre und dem N900 installiert wurde, keine HD Aufnahme unterstützt.

Wikipedia:
http://en.wikipedia.org/wiki/Texas_Instruments_OMAP
Zitat:"Not highlighted in the list below is that each OMAP3 processor has an "Image, Video, Audio" (IVA2) accelerator. These units do not all have the same capabilities. Most devices support 12 megapixel camera images, though some support 5 or 3 megapixels. Some support HD imaging."


Zusammenfassung:
Grafikkarten bei PCs unterstützen diesen nicht bei der Videowiedergabe. --> Falsch, das tuen sie schon seit jeher. Ich weiß es auch aus eigener Erfahrung.

Das I8910 HD ist nicht in der Lage 720p Videos aufzunehmen, weil der Omap 3430 höchstens D1 Auflösungen verarbeiten kann. --> Falsch. Das Samsung I8910 HD ist sehr wohl in der Lage 720p Videos wiederzugeben und aufzunehmen durch den PowerVR SGX530 Grafikchip, der die CPU in allen Belangen unterstützt. Ich unterstelle dir mal, dass du dich überhaupt nicht mit dem PowerVR Grafikchip beschäftigt hast. Die Fähigkeit des SGX530 zur HD Videoaufnahme ist nämlich kein Geheimnis und wird in vielen Artikeln erwähnt. Wieso hast du dir nicht diesen Link angesehen?:
http://www.beyond3d.com/content/news/711

ISP ist nur ein anderer Name für DSP. --> Falsch. ISP ist nicht nur ein anderer Name für DSP, das eine heisst Digital Signal Prozessor und das andere Image Signal Prozessor. DSP regelt bei Handys den Datentransfer via UMTS und GPRS sowie das Telefonieren, Rauschunterdrückung und beim I8910 HD ist er unter anderem auch die DNSe 2.0 (Digital Natural Sound Engine) und den Virtual 5.1 channel Dolby surround zuständig. ISP und der CMOS Sensor sind wie ich bereits in meinem letzten Text erwähnt habe für Fotos und Videos zuständig.
Nicht umsonst wird in Wikipedia folgendes angegeben jede einzelne Komponente aufgezählt:
OMAP3430 - 600 MHz ARM Cortex A8 + PowerVR SGX 530 GPU + 430MHz C64x+ DSP + ISP (Image Signal Processor)

"Du verlangst was nicht mal Copperfield könnte, einen Corsa in einen Ferrari umwandeln. Milstone, Satio,Palm Pre, N900, sie alle haben den selben Chip und >5MP Kameras und können nicht mal [email protected], Samsung holt als einziger HD aus dem Ding heraus und anstatt das anzuerkennen wirfst du unvollständige Arbeit vor? Man kann dir nur techn. Hilflosigkeit vorwerfen.
Und, daß der CPU nicht am Anschlag ist, ist für dich ein Problem? Du hast den Sinn an der Sache, daß der CPU entlastet wird, einfach nicht verstanden, das ist dein Problem"
--> Falsch. Das I8910 HD ist in der Lage 720p Videos aufzunehmen und wiederzugeben. Ich kann nur hoffen, dir verdeutlicht zu haben, dass das der Fall ist und kann kann nichts dafür, dass du das nicht verstanden hast und mir technische Hilfslosigkeit vorwirfst. Beim I8910 HD gibt es wie bereits erwähnt Verbesserungspotenzial in der Videoaufnahme, da gibt es nichts zu diskutieren und da kann sich Samsung auch nicht aus der Affäre ziehen.

Wenn dir noch etwas unklar ist, dann können wir hier gerne weiterdiskutieren, aber schreib jetzt nicht, dass das I8910 HD nicht in der Lage ist 720p Videos aufzunehmen...




MfG Jax
 
M

Muss.aufs.Klo

Guest
Muss

Hier ist ja was los ^^

Ok, kleine Frage am Rande an alle die auf HD oder 720p auf mobilen Geräten stehen:

Habt ihr euch schoneinmal gefragt, wie man einen ganzen HD Film auf einem aktuellen Smartphone unterbringen will, wenn es derzeit nur Geräte gibt die Fat/Fat32 unterstützen? Schoneinmal einen mehr als 10GB großen Film auf eine Speicherkarte kopiert, auf der man nur Dateien speichern kann die maximal 4GB groß sind?

Ich finde das viel wichtiger als ob ein Gerät nun 720p wiedergeben kann oder nicht wenn man dieses hoch gelobte Feature gar nicht richtig nutzen kann? HD Filmchen mit ein paar Minuten Lautzeit sind zwar ganz nett, aber es ist nicht das was man sich unter HD vorstellt, oder bin ich der einzige der so denkt?

Solange es bei Smartphones kein neues Dateisystem gibt, es muss ja kein NTFS sein, wird sich in der Richtung rein gar nichts weiterentwickeln. was bringen einem 32GB oder mehr wenn man nur kleine Dateien drauf speichern kann...
 
J

Jax667

Guest
@ Muss aufs Klo

Da hast du Recht und das ist sicherlich ein Problem. Ich denke auch, dass die HD Videowiedergabe vor allem den selbst aufgenommenen Videos dient und nicht in erster Reihe für auf die Festplatte kopierten Filme.

Aber selbst letzteres dürfte keine Problem darstellen, wenn man die Filme eben splittet. Filme in 720p sind ca. 4 bis 8 GB Groß, dann wird aus einem 8GB Film eben TeilA und TeilB. Hab ich selber mal mit VirtualDub gemacht.

@Ffm Knackarsch

Hier hab ich für dich noch ein paar Links, die dir die Sache verdeutlichen. Im Übrigen kann man auch gar nicht die maximale Auflösung eines Grafikprozessor überschreiten, d.h., es wäre gar nicht möglich für das I8910 HD 720p Videos aufzunehmen, wenn von der Hardware nur D1 Auflösungen unterstützt würden.

Ist bei Grafikkarten auch so. Die Ati HD 4890 unterstützt eine maximale Auflösung von 2560x1600. Selbst durch eine Übertaktung ist da nicht mehr rauszuholen.

http://www.pcdistrict.com/aricent-enable-playback-720p-video-on-texas-instruments-omap3430-platform-based-mobile-devices-review2050-8.html

http://www.dspdesignline.com/products/197005880

http://embeddedsystemnews.com/aricent-introduces-hd-videoaudio-encoders-and-decoders-for-ti-omap3430.html

http://www.ots.at/presseaussendung/OTS_20080214_OTS0001


Ich hoffe, dass falsche Gerücht, dass das Samsung I8910 HD keine HD Videoaufnahme unterstützt ist damit beendet und Samsung hat hier gefälligst nachzubessern!
 
F

Ffm Knackarsch

Guest
@Jax667
Ich weiß gar nicht wo ich anfangen soll dich zu korrigieren aber ich kann wohl nicht auf alle deine Denkfehler eingehen, denn dafür müßte ich dann einen Roman schreiben.

Ich bin ja auch der Meinung du gehörst zu den aufmerksameren, aber
mir scheint du hast ein defizitäres Basiswissen gepaart mit einem schweren Auffasungsproblem. Du stolperst von einer Unsinnigkeit in die andere und schmeißt völlig unterschiedliche Szenarien zusammen, die in keinem Zusammenhang stehen, die dich dann zu haaresträubenden Interpretationen veranlassen.

"Ich wiederhole: Grafikkarten werden seit jeher für die Wiedergabe und Aufnahme von Videos benötigt, sonst wäre z.B. ein flüssiges Abspielen von Videos nicht möglich.

Hast du schon mal den Treiber deiner Graikkarte deinstalliert und probiert auf z.B. Youtube ein HD Video anzusehen? Ruckelt? Wieso? --> Weil die Grafikkarte für das Bildausgabe zuständig ist und du ohne sie nichts auf deinem Monitor sehen könntest. Ohne Grafikkarte kann man gar nicht flüssig arbeiten, selbst das Surfen wird zu einer Ruckelorgie."

Bei mir hat es gerade Klick gemacht und ich glaube ich weiß jetzt was du hier übelst mißverstanden hast. Du hast eben die passende Erklärung zu deinem Wikizitat abgegeben, aber falsch interpretiert. Denn der bezieht sich eben auf die Frameberechnung, also den Bildaufbau.
Klar, wenn ich keine Grafiktreiber installiert habe ruckeln alle Animationen, natürlich dann auch Videos. In dem Fall wird der Windows Standardtreiber ersatzweise aktiviert und dieser, läßt dann den CPU die Frames berechnen, wofür er nicht designt ist und das normalerweise die GPU macht, wenn du noch dabei surfst oder Video schaust, bedeutet das zusätzlichen Rechenaufwand, was aber seperat neben der Frameberechung gemacht werden muß. Aber Frameberechnung ist nicht Gegenstand der Diskussion, denn hier geht es um Videoen-/decodierung, ein ganz anderes paar Schuhe, was du scheinbar einfach in einen Topf geschmissen hast.
Das sind ganz unterschiedliche Vorgänge, es gibt ganz unterschiedliche Mechnismen ein Bild zu erzeugen, Frame ist nicht gleich Frame, Videoframe ist nicht das selbe wie ein echtzeit 3D-Frame. Und
Videoen-/decodierung kann bislang noch keine übliche GPU, sondern übernimmt im Desktopbereich noch die CPU bzw. Im Handy ein DSP.

Ich verweise nochmal auf das originale Datenblat anstatt, daß du dich schon wieder auf einen schwammigen Wikiartikel, den du wiedermal fehlinterpretiert hast, und du mir wiedermal Korrekturarbeit bescherrst, verhedderst.

"Außerdem können sich die SGX530 Chips auch untereinander unterscheiden und so kann es sein, dass der Chip, der auf dem Palm Pre und dem N900 installiert wurde, keine HD Aufnahme unterstütz"

Du solltest weniger im konjunktiv reden, könnte,kann sein,hätte,sollte sind nur deine Spekulationen. Zitate helfen weiter.

"Not highlighted in the list below is that each OMAP3 processor has an "Image, Video, Audio" (IVA2) accelerator. These units do not all have the same capabilities. Most devices support 12 megapixel camera images, though some support 5 or 3 megapixels. Some support HD imaging."

Sind dir nicht die Untergruppen des OMAP3 aufgefallen?
Omap34xx, Omap35xx,Omap36xx.
Selbst unter ihnen gibt es weitere Untergruppen, die unterschiedlich ausgestattet sind.

OMAP3430: SD/D1 30fps
OMAP3440:
IVA™ 2+ accelerator enables multi-standard (MPEG4, WMV9, RealVideo, H263, H264) encode/decode at D1 (720x480 pixels) 30 fpsUp to 720p HD resolution
Http://focus.ti.com/general/docs/wtbu/wtbuproductcontent.tsp?contentId=36505&navigationId=12796&templateId=6123
OMAP3503
"3515
"3525
"3530
OMAP3640:
...decode at D1 (720 x 480 pixels) at 30 fpsUp to 720p HD resolution
Http://focus.ti.com/general/docs/wtbu/wtbuproductcontent.tsp?contentId=52605&navigationId=12837&templateId=6123

Ich habe einen AMD X2 3800+, 2XGeforce7600GS 256MB im SLI Verbund (kein CUDA), zugegeben nicht das Gelbe vom Ei. 720p mit h.264 geht flüssig und jetzt kommen wir der Sache näher.
Womit schaust du denn HD Filme? Ich denke mal mit den üblichen MultiCodecpacks (ffdshow,K-Codecpack) also libavc oder Corecodec. 3 mal darfst du raten was das sind? Alles Softwarecodecs und wer berechnet demnach die Dekomprimierung? Tip, Fängt mit C an und hört mit U auf.
Desktop CPUs sind aufjedenfall stark genug um noch mit youtubeHDs fertig zuwerden, da braucht es deswegen keinen extra DSP oder gar den GPU zur Encodierung aber bei Hochbitratigen BlueRay HDs ist dann Schluß, deswegen, und das ist ja das neue, und wovon ich die ganze Zeit spreche, sollen hier die neuen GPUs auch einspringen und das Dekomprimieren übernehmen.
Handy CPUs haben selbst mit youtube SD/D1 keine Chance, dafür haben sie ja, wie schon so oft gesagt einen extra CodecChip, der aber nur begrenzt leistungsfähig ist, sprich nur bis zu einer max Bitrate flüssig encodieren kann und das ist fest in Hardware eingegossen und unveränderbar.Du kannst die Auflösung beliebig erhöhen, mußt dann aber mit der Bildqualität oder der Frameraterunter, damit du die max Bitrate nicht überschreitest.

So ich hoffe es ist dir jetzt ein Licht aufgegangen und du erkennst daßdeine Forderung unmöglich ist.

mfg FK
 
F

Ffm Knackarsch

Guest
Noch was, ich habe ein HTC mit einem Qualcomm MSM7225 Chip und Qualcomm gibt die Videoperformance bei [email protected] an.
Wenn ich ein entsprechendes Video im internen Player, also den WMP, schaue läufts flüssig, wenn ich aber einen externen Player,wie den Coreplayer, nehme läuft es nicht mehr so rund. Das liegt daran, das der WMP Hardwarebeschleunigt ist, also der DSP für Videocodecs das Encodieren übernimmt, das ist bei den externen nicht der Fall, da hier der CPU zusätzlich das Encodieren übernehmen muß.
 
J

Jax667

Guest
@Ffm Knackarsch

Ähm...ich bin wieder überrascht. Sag mal, hast du dir die Links überhaupt angesehen? Es steht in den Artikeln deutlich, dass der Omap 3430, also genau derjenige, der in den genannten Modellen (darunter auch das I8910 HD), verbaut ist, HD Video Encoding/Decoding unterstützt. Ich habe nicht von anderen Omap Modellen geschrieben. Darauf bist du in deinem schönen Text gar nicht eingegangen.

Noch mal die Links:
http://www.pcdistrict.com/aricent-enable-playback-720p-video-on-texas-instruments-omap3430-platform-based-mobile-devices-review2050-8.html

http://www.dspdesignline.com/products/197005880

http://embeddedsystemnews.com/aricent-introduces-hd-videoaudio-encoders-and-decoders-for-ti-omap3430.html

http://www.ots.at/presseaussendung/OTS_20080214_OTS0001


Und nun eine Frage:
Unterstützt der OMAP 3430 nun HD Videoaufnahme und Wiedergabe oder nicht? Wer hat Recht, du oder ich?
Die Lösung fängt mit "i" an und hört mit "h" auf.


Du verhakst dich so sehr darin, zu begründen, warum man keine Grafikkarte zur Videowiedergabe benötigt, dass wir nun vom eigentliche Thema, also der HD Wiedergabe und Aufnahmefähigkeit des I8910 HD, abweichen. Nur um eines klar zu stellen: Es geht um die GPU Unterstützung bei der Videowiedergabe, die du nur den stärkeren Grafikkarten zuschreibst. CPUs alleine können auch Videos darstellen, jedoch meist nicht in befriedigender Form oder mit zu viel Rechenaufwand.

Conclusion: Es findet immer eine GPU Unterstützung sowohl beim Encoding als auch beim Decoding und nicht erst seit der Radeon der fünften Generation. Genau das ist der Punkt über den wir hier diskutieren und bei dem du Unrecht hast.

"Für den G45 mit integriertem Grafikkern namens GMA X4500 HD versprach Intels Steve Peterson reibungslose Wiedergabe von HD-Videos in den Formaten MPEG-2, VC-1 und H.264 – eine Funktion, die der AMD 780G schon jetzt bietet."
http://www.heise.de/newsticker/meldung/Intel-kuendigt-Onboard-Grafik-mit-HD-Video-Beschleunigung-und-Mini-ITX-Boards-an-188133.html
Hier stellt Intel einen Onboard Grafikchipsatz vor, der das HD Video encoding übernehmen soll, damit die CPU nicht überbelastet oder ausgelastet ist und dadurch Ressourcen für andere Aufgaben vorhanden sind.

"Die Grafikchip-Hersteller AMD und Nvidia reden zurzeit gerne und viel über den Einsatz ihrer GPUs als Applikationsbeschleuniger (General-Purpose-GPU, GPGPU). Von der theoretischen Rechenleistung her übertrumpfen Hochleistungs-Grafikchips gewöhnliche x86-/x64-Prozessoren um den Faktor 20 und mehr: Der AMD RV670 der Radeon-HD-3800-Karten etwa bringt es in Form der FireStream 9170 auf 500 GFLOPS, während ein einzelner Core-2-Duo-Kern bei 3 GHz lediglich etwa 24 GFLOPS schafft.
Beim Enkodieren und Transkodieren von HD-Video verarbeiten selbst aktuelle Quad-Core-Prozessoren nur wenige Bilder pro Sekunde, an Echtzeit-Bearbeitung von solchen Videodaten ist also ohne Spezial-Hardware nicht zu denken."

http://www.heise.de/newsticker/meldung/Grafikkarten-als-Turbolader-fuer-HD-Video-Encoding-210571.html

Die CPU ist gar nicht dafür ausgelegt, die Bildwiedergabe oder wie du es beschreibst Frameberechnungen alleine zu durchzuführen. Aus diesem Grund ist eine GPU überhaupt entwickelt worden und nicht, um Spiele oder nur komplexe 3D-Strukturen darzustellen, was nur ein Bereich ist für Grafikkarten. Bei Ati Grafikkarten gibt es nicht umsonst den Zusatz "HD", weil sie vor allem auch als Beschleunigungskarten dienen und das Abspielen von HD Videos flüssig gestalten.

Was Intel nun versuchen will, ist eine GPU in die CPU zu integrieren, sodass eine externe Grafikkarte unnötig wird, aber das ist auch nichts anderes als ein Grafikchip, der die Arbeit von gewöhnlichen Grafikkarten übernehmen soll, womit wir wieder bei der Tatsache gelandet sind, dass die CPU nicht für die Bildausgabe zuständig ist.




Zusammenfassung:
Das I8910 HD ist nach wie vor in der Lage 720p Videos darzustellen. Bevor du das hier verneinst, sieh dir bitte die Links an, die mehrere Seiten aufzählen, die die HD Aufnahmefähigkeit und Wiedergabefähigkeit des OMAP 3430 Chipsatzes eindeutig bejahen.

Grafikkarten unterstützen die CPU in allen Belangen, auch in der Videowiedergabe und übernehmen sogar immer mehr Aufgaben, weil sie sogar leistungsfähiger als die CPU selbst werden. Video encoding, decoding und transcoding ist ohne Grafikkarten gar nicht mehr vorstellbar.


Womit wir wieder bei meiner Aussage angekommen sind, dass du Unrecht hast.
 
F

Ffm Knackarsch

Guest
Ich verliere langsam die Lust für dich den Aufkläronkel zu spielen, ich gehe,im Gegensatz zu dir, auf deine Probleme ein und gebe dir haufenweise Fakten und Erklärungen ab, scheinbar ohne Erfolg.
___________
"Die CPU ist gar nicht dafür ausgelegt, die Bildwiedergabe oder wie du es beschreibst Frameberechnungen alleine zu durchzuführen. Aus diesem Grund ist eine GPU überhaupt entwickelt worden...blabla "

"CPUs alleine können auch Videos darstellen, jedoch meist nicht in befriedigender Form oder mit zu viel Rechenaufwand."

Schön, daß du das immerhin auch erkannt hast, hab ich auch schon erklärt, siehe mein vorheriges Posting von 18:10.
_______
_______
"Intel kündigt Onboard-Grafik mit HD-Video-Beschleunigung und Mini-ITX-Boards an" (07.03.08)

"(8.05.2008)
Grafikkarten als Turbolader für HD-Video-Encoding"

"Conclusion: Es findet immer eine GPU Unterstützung sowohl beim Encoding als auch beim Decoding und nicht erst seit der Radeon der fünften Generation. Genau das ist der Punkt über den wir hier diskutieren und bei dem du Unrecht hast."
-----
Okey, wenn bei dir die Zeitrechnung ab 2008 beginnt kann man das durchaus gelten lassen. Und die Tatsache, daß es als Innovation eingeführt worden ist, heißt ja, daß es das vorher nicht gab. Wer hat jetzt also Unrecht?
Zugegeben mit der neuen ATI 57xx.
habe mich so auf DirectX11 fixiert, was der GPGPU Standard für Windows sein wird, daß ich OpenCL, Stream,Cuda und was es da noch so gibt, ignoriert habe, Klar existieren GPGPU etwas länger, das Problem mitdenen ist nur, das funzt eben nur mit Exclusive Programmen und haben nur experimentelle Bedeutung und werden, bis auf OpenCL, bald vom Tisch sein.
________
________

Du befasst dich scheinbar selber kaum mit deinen eigenen Quellenangaben, warum soll ich das dann tun? Ich hab dir mal den Gefallen trotzdem getan.
Und zwar diese hier:
www.embeddedsystemnews.com/aricent-introduces-hd-videoaudio-encoders-and-decoders-for-ti-omap3430.html

"The Aricent MPEG4-SP 720p video and AAC audio codecs leverage the OMAP3430 processor capabilities (IVA(tm) 2.2 hardware accelerator and ARM® Cortex(TM)-A8 superscalar microprocessor core) ...
...Aricent’s multimedia software on the OMAP3430 processor is designed for multiple mobile platforms like Linux, Symbian and Windows Mobile."

Na fällt dir was auf? Nix mit Grafikchip? You loose würde ich mal sagen, mit deiner Hilfe ;)
HD wird durch den Aricent SoftwareCodec möglich, die sich Samsung von der Firma scheinbar in den HardwareDekoderchip IVA2+ implementiert hat lassen. Aber dieser hat im OMAP3430 eben die nur eine begrenzte Leistungsfähigkeit (Bitrate), abwerk eben nur bis D1.
Ich zitiere mich selbst:
"Du kannst die Auflösung beliebig erhöhen, mußt dann aber mit der Bildqualität oder der Frameraterunter, damit du die max Bitrate nicht überschreitest."

Mfg FK
 
J

Jax667

Guest
Weißt du eigentlich, dass du hier gerade deine technische Unkenntnis demonstrierst?

Du hast behauptet, dass das I8910 HD nicht dazu imstande ist, HD Videos aufzuzeichnen und wiederzugeben, was eindeutig von mir widerlegt wurde und warst wohl nicht imstande die Links anzusehen und hast die HD Fähigkeit auf andere Omap Chips zugeschrieben. Es ging aber nach wie vor um den Omap 3430, dessen Fähigkeiten mithilfe von Aricent erweitert wurden. Du lagst also von Anfang an falsch, aber bist so lustig, dich den "Aufklärungsonkel" zu nennen. Nur weil die HD Aufnahme- und Wiedergabefähigkeit nicht vom PowerVR SGX530 abhängt, wie ich vermutete, sondern vielmehr vom Prozessor selbst, heisst es "You lose" (übrigens mit einem "o").

Du warst doch derjenige, der nicht wusste wozu der Omap 3430 imstande ist. Du solltest mir lieber danken, ich hab dir etwas beigebracht.

Des Weiteren hast du Hardwarebeschleunigung beim Encoding und Decoding von Videos lediglich neueren Grafikchipsätzen zugeschrieben. Was soll ich sagen, auch das war falsch.


"Klar, wenn ich keine Grafiktreiber installiert habe ruckeln alle Animationen, natürlich dann auch Videos. In dem Fall wird der Windows Standardtreiber ersatzweise aktiviert und dieser, läßt dann den CPU die Frames berechnen, wofür er nicht designt ist und das normalerweise die GPU macht, wenn du noch dabei surfst oder Video schaust, bedeutet das zusätzlichen Rechenaufwand, was aber seperat neben der Frameberechung gemacht werden muß. Aber Frameberechnung ist nicht Gegenstand der Diskussion, denn hier geht es um Videoen-/decodierung, ein ganz anderes paar Schuhe, was du scheinbar einfach in einen Topf geschmissen hast.
Das sind ganz unterschiedliche Vorgänge, es gibt ganz unterschiedliche Mechnismen ein Bild zu erzeugen, Frame ist nicht gleich Frame, Videoframe ist nicht das selbe wie ein echtzeit 3D-Frame. Und
Videoen-/decodierung kann bislang noch keine übliche GPU, sondern übernimmt im Desktopbereich noch die CPU bzw. Im Handy ein DSP."



Das stimmt einfach nicht. Die CPU leitet die Bildberechungen an die GPU weiter, welche sie übernimmt und an den Monitor weiter leitet. Das war früher nicht nötig, weil es keine grafischen Benutzeroberflächen gab, geschweige denn überhaupt 3D Anwendungen. Das ist aber anders geworden und das schon zu den 90er Jahren.
Ein Videoframe ist sehr wohl zu vergleichen mit einem 3D Frame zu vergleichen, wobei die Berechnung des letzteren aufwendiger ist, weil Polygone zusammen ein 3 dimensionales Bild schaffen und es auch gilt andere Effekte wie Texture Mapping, Bump Mapping, Anti-Aliasing, Anisotropisches Filtern, Schatten und und und...zu berechnen.

""CPUs alleine können auch Videos darstellen, jedoch meist nicht in befriedigender Form oder mit zu viel Rechenaufwand."

Schön, daß du das immerhin auch erkannt hast, hab ich auch schon erklärt, siehe mein vorheriges Posting von 18:10."


Sag mal, liest du auch mal, was du schreibst? Es ging um die Hardwarebeschleunigung bei der Videowiedergabe, ich habe gar nicht bestritten, dass die CPU es auch könnte. Du bist derjenige, der behauptet hat, dass allein die CPU dafür zuständig ist, das nach wie vor falsch ist. Es findest schon seit den 90er Jahren eine Hardwarebeschleunigung statt. Dass ich das anhand von HD Videos verdeutlicht habe, heißt nicht, dass es vorher keine Hardwarebeschleunigung gab. Ich weiß es schließlich selbst aus eigener Erfahrung. Ich glaube, du weißt es einfach nicht. Aber gerade deshalt, solltest du nicht behaupten, du wüsstest irgendetwas besser in dieser Hinsicht.


So interessant die Diskussion mit dir war, bin ich doch der Ansicht, dass du außer deiner eigenen subjektiven und auf falschen Tatsachen beruhenden Meinung, nichts zu bieten hattest und hast. Weder war die Tatsache richtig, dass das I8910 HD keine HD Videos aufnehmen und wiedergeben kann noch dass die CPU in eine Computer bei der Videowiedergabe keine Hardwarebeschleunigung durch die GPU erhält und schon lange erhalten hat.

Wie ich bereits in meinem Post #23 geschrieben habe:
Erst informieren, dann schreiben.
Und wenn es geht bitte mit Beweisen für deine Theorie, da bin ich gespannt.

Um es in deinen Worten zu formulieren: You lose.
 
J

Jax667

Guest
P.S. Interessanterweise bist du, nachdem du festgestellt hast, dass du dich im Punkt mit dem I8910 HD geirrt hast, lieber auf die PC Diskussion ausgewichen. Aber es ist beides nicht korrekt.

Read u
 
X

Xibalba

Guest
Jax667 hat Recht, da gibt es nichts zu diskutieren. Das Abspielen von Videos wird schon seit Jahren Hardwarebeschleunigt, damit die CPU entlastet wird. Sie wäre vermutlich auch nicht alleine dazu imstande oder wäre überfordert --> Video würde ruckeln!

Das Samsung Omnia HD kann natürlich Videos in HD aufnehmen.
Ist ne interessante Diskussion, aber Knackarsch (welch selten schwuler Name) redet Schwachsinn!!!
 
F

Ffm Knackarsch

Guest
@jax667
Nach dem du dich mit deiner eigenen Quellenangabe selbst ins Abseits geschossen hast und du hoffentlich endlich erkannt hast was für einen Unsinn du dir zusammengereimt hast, fühlst du dich jetzt scheinbar in die Ecke gedrängt und weißt dir nicht anders zu helfen als dir was aus den Fingern zu saugen, in dem du mir falsche Behauptungen in den Mund legst, das ist echt armseelig.

"Weder war die Tatsache richtig, dass das I8910 HD keine HD Videos aufnehmen und wiedergeben kann..."

Ich zitiere meine Komments:

24.12.09 16:25
"Die Framrate bei Videoaufnahmen per Software update zu heben ist kompletter Unsinn, glaube nicht daß Samsung sowas behauptet hat. Der DSPChip für Videocodecs hat einfach nicht genug Dampf dafür, 720p bei 24frames ist schon am Anschlag."

25.12.09 13:27
"Guck dir das Datenblatt vom TI OMAP 3430 an, da siehst du die empfohlenen Formate, nämlich SD/[email protected] frames, [email protected] wäre eine Klasse drüber. Da hat Samsung dann gesagt, machen wir daraus 720p gehen dann dafür runter auf 24fps, was afaik im HD Bereich üblich ist."



Zur Videbeschl. Per GPU muß ich dir teilweiserecht geben. Aber...

"Es ging um die Hardwarebeschleunigung bei der Videowiedergabe, ich habe gar nicht bestritten, dass die CPU es auch könnte. Du bist derjenige, der behauptet hat, dass allein die CPU dafür zuständig ist, das nach wie vor falsch ist."
-----
Ich zitiere mich:

"Womit schaust du denn HD Filme? Ich denke mal mit den üblichen MultiCodecpacks (ffdshow,K-Codecpack) also libavc oder Corecodec. 3 mal darfst du raten was das sind? Alles Softwarecodecs und wer berechnet demnach die Dekomprimierung? Tip, Fängt mit C an und hört mit U auf."
Videobeschl. hast du nur dann wenn du eine Stream/Cuda fähige Graka, oder diesen Intelkram hast und Videos mit einem entsprechenden Player abspielst, der diese Technik unterstüzt.
----
"Des Weiteren hast du Hardwarebeschleunigung beim Encoding und Decoding von Videos lediglich neueren Grafikchipsätzen zugeschrieben. Was soll ich sagen, auch das war falsch."

Ich weiß ja nicht was du unter neu oder alt verstehst, aber ich frage mich grad ob du überhaupt einen blassen Schimmer hast wie Videobeschleunigung via GPU möglich gemacht wird. Wenn du nämlich so einen Müll schreibst wie den hier:

"Es findest schon seit den 90er Jahren eine Hardwarebeschleunigung statt. Dass ich das anhand von HD Videos verdeutlicht habe, heißt nicht, dass es vorher keine Hardwarebeschleunigung gab. Ich weiß es schließlich selbst aus eigener Erfahrung. Ich glaube, du weißt es einfach nicht. Aber gerade deshalt, solltest du nicht behaupten, du wüsstest irgendetwas besser in dieser Hinsicht."
----
Ich zitiere mich nochmal:
"Ich habe einen AMD X2 3800+, 2XGeforce7600GS 256MB im SLI Verbund (kein CUDA)"
Die ist aus dem Jahr 2007 und kann KEINE Videos beschleunigen!!!
Die ersten die das überhaupt konnten waren die Nvidia G8xxxer bzw. ATI R580 und die gibt es erst seit Q4 2006.

Http://en.wikipedia.org/wiki/CUDA#Current_and_Future_usages_of_CUDA_Architecture
Http://en.wikipedia.org/wiki/AMD_Stream_Processor
90er Jahre? *Rofl* Selten so einen Schwachsinn gehört. jetzt bin ich mal auf deinen Erfahrungsbericht gespannt. Du wirst auch hier auf die Nase fallen.
Ich zähl mal all den restl Käs auf den du verzapft hast.

"Natürlich unterstützt auch dieser Grafikchip den Hauptprozessor in allen Belangen, selbst bei der Musikwiedergabe.
... sie unterstützen auch den Hauptprozessor beim Fotografieren, bei der Videoaufnahme und Videowiedergabe und in vielen anderen Bereichen."

"Der 3D Prozessor unterstützt den Hauptprozessor in fast allen Tätigkeiten wie zum Beispiel im Menü (stimmt sogar), beim Fotografieren und auch bei der Videoaufnahme. Man kann ihn praktisch wie einen zweiten Rechenkern behandeln."

"Was glaubst du denn, warum Grafikchips in Handymodellen eingebaut werden? Sicherlich nicht, weil sie Open GL ES 2.0"

Gegen dein Gesülze war mein ZeitFehler wegen Stream/Cuda Karten, den ich ja korrigiert hatte, noch harmlos.
 
J

Jax667

Guest
Wir lagen beide nicht ganz richtig, aber ich hatte eben nur Unrecht im Detail und nicht beim Thema überhaupt.

Nur weil der Audio/Video Codec von Aricent durch einen besseren Algorithmus die Videoaufnahmefähigkeit und Wiedergabe auf 720p steigert, kann man nicht behaupten, dass es Schwachsinn ist, weil ursprünglich nur D1 Auflösungen möglich waren.

Den Omap 3430 Chip gab es schon 2007, der Aricent Codec kam 2008 hinzu. Wenn Tesas Instruments und Aricent sich bereits vorher abgesprochen hätten, wäre dem Omap 3430 dem Datenblatt von vornherein eine 720p Fähigkeit zugeschrieben worden. Ich weiß gar nicht warum du dich so sehr darauf fixierst, denn wie ich bereits erwähnt habe und jetzt wieder tue: Das Samsung I8910 HD kann in 720p filmen und wiedergeben und wenn das nicht von der Hardware unterstützt würde, wäre das auch gar nicht möglich und man braucht hier auch nicht versuche, von falschen 720p Auflösungen zu schreiben. Es hat dich möglicherweise überrascht, aber du lagst hier allem Anschein nach nicht ganz richtig.

-----------------------------------
24.12.09 16:25
"Die Framrate bei Videoaufnahmen per Software update zu heben ist kompletter Unsinn, glaube nicht daß Samsung sowas behauptet hat. Der DSPChip für Videocodecs hat einfach nicht genug Dampf dafür, 720p bei 24frames ist schon am Anschlag."

25.12.09 13:27
"Guck dir das Datenblatt vom TI OMAP 3430 an, da siehst du die empfohlenen Formate, nämlich SD/[email protected] frames, [email protected] wäre eine Klasse drüber. Da hat Samsung dann gesagt, machen wir daraus 720p gehen dann dafür runter auf 24fps, was afaik im HD Bereich üblich ist."
-----------------------------------

Das sind rein subjektive Aussagen. Es steht dir nämlich gar nicht zu hier zu entscheiden, ob der DSP Chip dazu in der Lage ist oder nicht. Wie man eindeutig gesehen hat, ist er und der Prozessor sehr wohl dazu in der Lage.
Das ist doch vollkommen egal, was im Datenblatt drin steht. Deine Argumentation hat sich hier festgefahren.
Die Fähigkeit zur HD Aufnahme und Wiedergabe erschien erst nach der Einführung des Omap 3430 Prozessors. Ich weiß ehrlich gesagt auch nicht, warum ich mit jemandem diskutiere, der anscheinend nicht die Fakten anerkennen möchte.



Und was die Grafikkarte angeht, so hast du die Funktionsweise nicht ganz verstanden. Der Prozessor sendet immer die Signale an die Grafikkarte, die dann das Bild für den Monitor berechnet. Sie dient sozusagen als Communicator zwischen CPU und dir. Aber nur mal, um eines richtig zu stellen: Es gibt eine CPU, was Central Processing Unit bedeutet und eine GPU, was Graphics Processing Unit bedeutet. Jetzt könnte man sich sicherlich an dieser Stelle fragen, wozu eine Grafikkarte einen Prozessor benötigt, den es übrigens nicht erst seit 2006 gibt.
Ganz einfach: Die Grafikkarte berrechnet schon seit Jahren JEDEN einzelnen Pixel, der auf deinem Monitor zu sehen ist, mit, um den Hauptprozessor zu entlasten.
Eine Grafikkarte ist fast schon ein PC im PC, weil sie auch über Arbeitsspeicher verfügt (Video-Ram), in den sie Informationen ablegen kann und wiederaufrufen und eben einen Prozessor. Womit wir wieder bei meiner Aussage wären: Sie unterstützt die CPU in allen Belangen, alles was auf dem Monitor zu sehen ist, wird durch die Grafikkarte mitberechet und das auch schon seit den 90er Jahren.
Aus welchem Grund könnte man sonst einen derart starken Prozessor in der Grafikkarte benötigen? Aus welchem Grund wird die Grafikkarte zwischengeschaltet und stellt die Bilder auf dem Monitor dar? Nur für Spiele? Nein.


Ich glaube, du solltest dich mit anderen Menschen unterhalten, die dir diese Tatsachen bestätigen, denn mir möchtest du wohl keinen Glauben schenken. Informiere dich doch einfach per Google über die Aufgaben einer Grafikkarte, dann wirst du nicht solche Unwahrheiten verbreiten.




@Xibalba

Ich denke auch, dass ich Recht habe, aber man sollte hier immer versuchen freundlich zu bleiben, auch wenn einem der Name nicht gefällt.
 
X

Xibalba

Guest
Samsung hat mit dem Omap3430 Chip gar nichts gemacht. Den Chip hat Texas Instruments gebaut und Aricent hat ihn mit neuen Audio/Video Codecs ausgestattet, da hat Samsung selber gar nichts damit zu tun.

Die kaufen nur den Chip und setzen ihn ein. Die können nicht den Chip kaufen, der für D1 Auflösungen gedacht war und einfach auf 720p erhöhen. Hallo?!?!?!?!? Selten so einen Blödsinn gelesen!! Is klar...zuerst erhöht man mal kurz die Auflösung und setzt dann die Framerate [email protected]:
Informier dich mal lieber, eine Diskussion mit dir in anderen Foren ber Grafikkarten und Das Omnia HD wäre ziemlich peinlich!!!!
 
F

Ffm Knackarsch

Guest
@jax667
Sag mal liest du überhaupt was ich schreibe?
"... wozu eine Grafikkarte einen Prozessor benötigt, den es übrigens nicht erst seit 2006 gibt."

Wo habe ich denn soetwas geschrieben???
Ich habe geschrieben:
Stream und CUDA fähige GPUs gibt es erst seit Q4 2006 und nur dadurch ist die GPU General Purpose fähig und in der Lage Videos zu dekodieren.

Ich zitiere:
"Die ersten die das überhaupt konnten waren die Nvidia G8xxxer bzw. ATI R580 und die gibt es erst seit Q4 2006."

siehe Wikilinks

BTW, Bist du noch gar nicht auf Stream/Cuda,OpenCL, eingegangen oder zu den Softwarecodecs. Das ist entscheidend und passt nämlich alles gar nicht zu deiner Videobeschleungungsstory.
Und zur max Bitrate hast du auch noch kein Wort verloren.
________
"Das sind rein subjektive Aussagen. Es steht dir nämlich gar nicht zu hier zu entscheiden, ob der DSP Chip dazu in der Lage ist oder nicht. Wie man eindeutig gesehen hat, ist er und der Prozessor sehr wohl dazu in der Lage. Das ist doch vollkommen egal, was im Datenblatt drin steht"

Du schaust dir nicht genügend Datenblätter an. Videoperformance wird üblicherweise in [email protected] angegeben, selten wird die entscheidende max Bitrate angegeben. Denn unter 30fps ist nicht mehr flüssig und wird deswegen im Datenblatt nicht berücksichtigt. Und wenn SD/[email protected] angegeben ist dann wird eben nur bis zu dieser Auflösung flüssige Aufnahme/Wiedergabe garantiert, Das i8910HD kann zwar, dank exklusiv Codec, [email protected], was aber nicht flüssig ist und deswegen offiziell von TI nicht berücksichtigt wird, sonst würde da stehen [email protected], was es aber nicht tut, warum sollte ein Hersteller das vorenthalten?
Werf mal einen Blick auf das OMAP3440, hier wird [email protected] garantiert.
Ich verlasse mich auf Fakten, du spekulierst lieber wildherum, genau wie deine Grafikkartenstory und deswegen fällst du laufend auf die Nase.

Naja lassen wir es gut sein und sorry dafür, daß ich im Eifer ab und zu über die Stränge geschlagen habe, bin halt leicht reizbar:p Aber ich habs nie persönlich gemeint, aufjedenfall hast du meinen Respekt.
Ich klinke mich jetzt hier aus bevor noch andere aus der Jogginghosenträgerschicht auf die Idee kommen hier ihren Dummfug ablassen zu müssen und das Niveau herunterziehen.
 
D

dK.de

Guest
Nokia N95 8GB hat eine GPU und somit einen Hardware-Beschleuniger, Gallerie etc. ruckelfrei.

Nokia N96 besserer CPU, aber kein GPU, somit kein Beschleuniger, Gallerie total ruckelig.


Nokia N97 - Keine GPU und kein Beschleuniger, Nokia verweigert H.264 Videos in nHD Auflösung, würden wohl zu ruckelig laufen! Samsung jedoch gewährt dies und dazu sogar HD-Videos, wenn auch nur 720p.

Klartext....Hersteller verbauen Geräte mit GPU und ohne GPU.

Die ohne GPU wurden u.a. wegen größerer Akkulaufzeit gebaut, sowie günstigeren Herstellungskosten.

Die mit GPU verbrauchen einfach mehr Strom und sind teurer.

Fakt ist, dass der GPU die CPU nicht nur entlastet, sondern viel mehr Potential im Handy hat.

Ich denke, dass man mehr nicht sagen/schreiben brauch !?


MfG
 
J

Jax667

Guest
Sorry, dass ich ein wenig länger gebraucht habe, um zu antworten. War beschäftigt.

Mit 2006 wollte ich einfach ausdrücken, dass es eine Hardwarebeschleunigung schon früher gab und habe mich da auf deine Meinung bezüglich der Radeon 5 bezogen. Kam vielleicht ein wenig falsch herüber.

Du schneidest mit Stream, Cuda und OpenCL kein leichtes Thema an, aber einfach ausgedrückt kann man schreiben, dass sowohl Ati (übrigens früher als Nvidia) als auch Nvidia sich gedacht haben, dass man den Grafikprozessor (GPU) für die Programmierung öffnen könnte, sodass Anwendungen, die ursprünglich hauptsächlich der CPU vorbehalten waren, nun auch von der GPU berechnet und unterstützt werden.

Die Architektur dazu liefert Ati wie du bereits erwähnt hast mit Stream und Nvidia mit CUDA, die beide die Programmiersprache OpenCL (Open Computing Language) unterstützen, die sowohl auf den Grafikprozessor zugreifen kann als auch auf andere Prozessoren wie z.B. die CPU, um rechenintensive Aufgaben auf die jeweiligen Prozessoren aufteilen zu können und die Leistung zu dadurch zu vervielfachen zu können. Soviel zur Theorie.

In der Praxis kann man das z.B. auf das Konvertieren von Videos in andere Formate anwenden. Ein 71 MB großer Trailer von Fluch der Karibik 2 mit einer Auflösung von 1280 x 528 (plus schwarze Balken) im DivX-AVI-Format wird mithilfe einer Ati Radeon HD 4890 auf 720 x 480 heruntergerrechnet und benötigt dazu nur eineinhalb Minuten anstatt, als wenn nur mit der CPU (AMD Phenom II Quadcore 3,2 GHZ) gerrechnet wird, die drei Minuten benötigt. Anderes Beispiel:

wmv Test
Input wmv 145 MB
Video Windows Media Video 9 1024x768 25.00 fps Bitrate 2800 kbit
Audio Windows Media Audio 48000 Hz Stereo 128 kbit

Output YouTube 55 MB
Video MPEG4 Video (H264) 480x360 25.00 fps Bitrate 1000 kbit
Audio AAC 48000 Hz Stereo 1536 kbit

Videolänge: 6:56 Minuten


Die MSI Geforce GTX 285 (680/1476/1250 1024 MB) benötigt beim Encoding nur 42 Sekunden, wobei die CPU Last dabei nur bei 16 Prozent liegt. Die CPU alleine (i7 920 3.8 GHz) benötigt dazu mit 82 Sekunden fast doppelt soviel. Soviel zur Praxis.

http://www.tomshardware.com/de/ATi-Stream-AMD-gpgpu,testberichte-240350.html
http://www.tomshardware.com/de/nvidia-cuda-encoding-badaboom,testberichte-240327.html

Das Beispiel zeigt, was man mit einer programmierbaren GPU, die dadurch nicht nur bei Grafikanwendungen zum Einsatz kommt, sondern z.B. auch beim Encoding, das vorher nur von der CPU berechnet worden ist. Solche Grafikprozessoren bezeichnet man als GPGPU (general purpose GPU), was du auch schon weißt.


Nun kommen wir aber zum Unterschied zwischen deiner und meiner Aussage.
Denn GPGPU gibt es nicht sonderlich lange wie du ja auch bestätigt hast und das war es auch nicht, was ich meinte. Die GPGPU Technologie entlastet die CPU beinahe KOMPLETT, man kann damit zum Beispiel unter anderem die unglaublich rechenintensive Aufgabe von Wetterberechungen um ein vielfaches Verkürzen. Das war aber nicht die Aussage meiner These. Bei unserer kleine Diskussion hier ging es um die Hardwarebeschleunigung bei der Wiedergabe von Videos und damit meine ich auch nicht die Hardwarebeschleunigung bei HD Videos durch z.B. die HD-Grafikkarten von Ati, die ebenfalls eine neue Technologie darstellt und auch nur dazu gedacht sind die CPU beinahe KOMPLETT zu entlasten, sodass diese nur noch minimal beteiligt ist.

Bei meiner Aussage ging es darum, dass die Grafikkarten schon seit Jahren mit ihren Grafikprozessoren die CPUs bei der Videowiedergabe unterstützen und JEDER einzelne Pixel, der auf deinem Monitor zu sehen ist, von der Grafikkarte MITBERECHNET wird und dass sie das sogar MÜSSEN, weil die CPU alle Signale zuerst an die Grafikkarte sendet und diese von ihr wiederum an den Monitor geleitet werden. Weder wird hierbei die CPU komplett entlastet noch leistet die hauptsächliche Rechenarbeit der Prozessor der Grafikkarte wie es bei den neueren Grafikkarten der Fall ist. Das ist aber auch nicht wichtig in unserem Disput hier. Es geht nämlich um die Hardwarebeschleunigung, die schon seit Jahren statt findet, ohne welche die CPU alleine Videos ÜBERHAUPT nicht flüssig wiedergeben könnte, weil er auch gar nicht dafür ausgelegt ist Bildberechnungen alleine durchzuführen. Wozu gibt es denn sonst eine Graphics Processing Unit? Das war meine ursprüngliche Aussage und hier finde ich nach wie vor, dass du Unrecht hattest und hast, weil du eben behauptet hast, dass das nicht der Fall war und man eine Hardwarebeschleunigung erst mit neueren Grafikkarten erhält. Was du meinst sind neue Technologien, welche die CPU beinahe komplett entlasten. Was ich meine ist die übliche Hardwarebeschleunigung, die allein schon von der Architektur vorgeschrieben wird, dass nämlich jeder Pixel auf dem Monitor mitberechnet wird uns somit auch die Wiedergabe von Videos.

Jetzt wurde das Thema mit den Grafikkarten nur kurz angeschnitten und wird nun fast zum eigentlichen Hauptthema...:)





Aber zum Hauptthema möchte ich jetzt kommen.
Alles, was ich behaupten kann ist, dass Aricent mit ihrem Audio/Video Codec für den Omap 3430 Chip diesem eine 720p Encoding und Decoding Fähigkeit verliehen haben. Woraus du nun abliest, dass dieser diesen Chip derart überfordert, sodass er nur in 24 Frames per second aufnehmen kann ist mir ehrlich gesagt sehr schleierhaft. Du erwähnst ständig, dass der Prozessor bis zum Anschlag arbeitet und gar nicht in der Lage ist flüssig bei 24 Fps geschweige denn 30 Fps aufzunehmen...wo steht das bitte geschrieben? Ein Beweis würde die Diskussion hier sicherlich erleichtern, wobei ich bezweifle, dass du den bringen kannst.

Denn woher willst du denn wissen, dass der Chip nur 720p in maximal 24 Fps enkodieren und dekodieren kann und Texas Instruments die 720p Aufnahme- und Wiedergabefähigkeit deswegen nicht ins Datenblatt aufgenommen hat? Ich kann dir nicht schreiben, warum sie das nicht getan haben, sondern lediglich vermuten wie ich oben bereits erwähnt habt, dass sich die Omap3430 Chips auch untereinander unterscheiden können und vermutlich nicht jeder Chip eine 720p Aufnahme- und Wiedergabefähigkeit besitzt. Es war schließlich Samsung, die 720p mit 24Fps angegeben haben und ob eigentlich mehr rauszuholen ist, darüber können wir beide nicht schreiben. Ich weiß auch, dass andere Modelle wie das 3440, das du bereits erwähnt hast, in HD aufnehmen und wiedergeben können, das ist aber nicht Thema unserer Diskussion.

Alles was ich behaupten kann ist, dass der Omap 3430 Chip in der Lage ist in 720p zu enkodieren und zu dekodieren und das bei mindestens 24 Fps, weil es Samsung so angibt. Und genau in diesem Punkt unterscheiden wir uns und hierbei hast du Unrecht gehabt.

Zum Thema 24 Fps: Ich unterstelle den Leuten von Samsung einfach, technisch derart versiert zu sein, dass sie keinen totalen Unfug in der Welt verbreiten. Denn Aricent hat den Omap 3430 Chip sicherlich nicht mit ihrem Codec derart erweitert, dass eine 720p Aufnahme- und Wiedergabefähigkeit zwar existiert, aber nur in unbefriedigenden 10 bis 15 Fps. Und selbst wenn das der Fall wäre, könnte Samsung da sicherlich keine 24 Fps rausholen, denn den Chip haben sie weder erfunden noch mit dem Codec von Aricent erweitert, der 720p möglich machte...
Hier brauchen wir uns also nicht unnötig verstricken, denn allem Anschein nach ist der im I8910 HD verbaute Omap 3430 Chip sehr wohl in der Lage 720p zu enkodieren und zu dekodieren bei mindestens 24Fps.

Und was die Bitrate angeht, so möchte ich an dieser Stelle schreiben, dass diese im ersten Moment nicht wichtig ist weder die Audio- noch die Videobitrate. Bei 720p geht es an erster Stelle um die Auflösung und die Fps und allem Anschein nach ist dies beim I8910 HD möglich. Zusätzlich darf man die Videos vom I8910 HD hierbei auch nicht mit dem normalen 720p oder gar 1080p Standard vergleichen.

Mit dem VLC Player ausgelesen:
Mein N95 8gb nimmt Videos in VGA auf bei flüssigen 30 Fps in MP4 auf, wobei die Audioabtastrate bei 48000Hz liegt. Die Videobitrate liegt bei meinem Beispielvideo bei ca 3000 kb/s. Beim I8910 HD sollten die Videos mit 24 Fps aufgezeichnet werden (sie liegen aber real bei 20-22 Bildern pro Sekunde), wobei der Audicodec AAC benutzt wird und die Abtastrate bei 32000 Hz liegt. Der Ton ist qualitativ nicht so hochwertig wie bei meinem N95 8gb. Die Videobitrate schwankt im Beispielvideo von 8000 kb/s bis 13000 kb/s und somit werden deutlich mehr Informationen übertragen. Die maximale Audiobitrate liegt bei 250 kb/s.

Das sind schon sehr ordentliche Werte für ein Handy und alles, was sich der I8910 HD User wünscht, ist, dass Samsung die Bildwiederholrate auf 24 Bilder pro Sekunde steigert und die Abtastrate auf 48000Hz erhöht, um eine gute Bild- und Tonqualität zu gewährleisten.

Jetzt sind wir bei der Schlussfolgerung angekommen: Du hast dich bei der 720p Aufnahmefähigkeit und Wiedergabefähigkeit des Samsung I8910 HD geirrt und ich hoffe, ich konnte dir zeigen, dass dem so ist.


Ansonsten kann ich das Kompliment an dich zurückgeben. Selten auf einen technisch so interessierten Diskussionspartner getroffen und ich bin auf unsere nächste Diskussion gespannt :)
Respekt hatte ich für dich schon von Anfang an.




MfG Jax
 
Oben