Autor Thema: HDMI / DisplayPort / HDCP ...  (Gelesen 2727 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
3D fürs Fernsehen - HDMI 1.4a ist fertig
« Antwort #15 am: 05 März, 2010, 11:21 »
Spezifikationen ebnen Weg für 3D-Fernsehen und kompatible Empfangsgeräte

Die HDMI-Lizenzvergabegesellschaft hat wie erwartet die HDMI-Spezifikation 1.4a abgesegnet. Sie erweitert den Schnittstellenstandard um verbindliche 3D-Formate für stereoskopische Fernsehübertragungen.
HDMI 1.4a erweitert die HDMI-Spezifikation um verschiedene Verfahren, mit denen Fernsehsender künftig 3D-Inhalte liefern können. Bis zur Absegnung von HDMI 1.4 im Juni 2009 war laut HDMI-Licensing-Chef Steve Venuti noch nicht klar genug, welches oder welche 3D-Formate für Fernsehsendungen verwendet werden sollen.

Nun haben sich Fernsehsender und Gerätehersteller darauf geeinigt, dass aus Bandbreitengründen die für Stereoskopie benötigten unterschiedlichen Ansichten für beide Augen entweder nebeneinander (Side-by-Side Horizontal) oder übereinander (Top-and-Bottom) übertragen werden. Das halbiert die Auflösung, je nach Verfahren entweder in der Horizontalen oder der Vertikalen.

Für Side-by-Side Horizontal schreibt die Spezifikation für die Einzelbilder eine HD-Auflösung von 1080i bei 50 oder 59,94/60 Hz vor. Bei Top-and-Bottom sind es entweder 720p (50/59,94/60 Hz) oder 1080p (23.97/24 Hz). Für 3D-Filme etwa auf Blu-ray gelten 1080p bei 23,98/24 Hz und für 3D-Spiele - womit bisher vor allem die Playstation 3 (PS3) gemeint ist - 720p bei 50 oder 59,94/60 Hz.

HDMI-1.4a-konforme Fernseher und Projektoren müssen auch die Side-by-Side- und Top-and-Bottom-Signale verarbeiten können. Receiver müssen nur in der Lage sein, sie problemlos weiterzuleiten und Fernsehtuner müssen wenigstens eins der vorgeschriebenen 3D-HDTV-Formate unterstützen.

HDMI 1.4 enthielt bereits eine 3D-Spezifikation, die sich jedoch vorrangig um die ab Sommer 2010 zu erwartenden Blu-ray-3D-Filme drehte. Bisher als 3d-ready vorgestellte Blu-ray-Player und AV-Receiver enthalten dennoch noch keine HDMI-1.4-Chips, sie realisieren die 3D-Unterstützung über das für 3D-Filme ausreichende HDMI 1.3.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
Der nächste HDMI-Konkurrent steht bereit
« Antwort #16 am: 30 Juni, 2010, 15:08 »
Die im vergangenen Jahre von LG, Samsung, Sony und Valens Semiconductor gegründete HDBaseT Alliance hat die Fassung 1.0 der Spezifikation ihrer A/V-Schnittstelle "HDBaseT" finalisiert. Mit der unkomprimierten, kopiergeschützten Übertragung digitaler Videos in bester HD-Auflösung nebst Surround Sound in allen gängigen Formaten und Steuersignalen wirkt HDBaseT zunächst nur wie ein Abklatsch des High Definition Multimedia Interface (HDMI). Doch hinter der neuen Schnittstelle stecken durchaus einige neue und interessante Denkansätze.

Das beginnt bereits bei den Kabeln: HDBaseT setzt hier auf gewöhnliche Ethernet-Kabel vom Typ CAT5e/6 mit dem gewöhnlichen RJ-45-Stecker. Dann könne jeder Anwender Verkabelungen über längere Distanzen mit Kabeln aus dem PC-Laden um die Ecke realisieren – was dafür sorgen dürfte, dass die bei HDMI so engagierten Kabelhersteller wenig Interesse an HDBaseT zeigen werden.

Apropos Ethernetkabel: Bei HDMI kam mit der Fassung 1.4 ein Ethernet-Kanal hinzu, dessen Geschwindigkeit bei maximal 100 MBit/s liegt. Auch HDBaseT bietet einen solchen Datenkanal, über den anfangs bis zu 100 MBit/s laufen solle. Die HDBaseT Alliance gibt aber bereits an, dass das System bis zu einem Wert von 1 GBit/s skalierbar ist. Daneben sollen auch Daten nach dem USB-Protokoll transportiert werden können.

Heimcineasten, die bereits leidvolle Erfahrungen mit der HDMI-Verkabelung über mehr als 15 Meter – beispielsweise zwischen Audio/Video-Receiver und Projektor – gesammelt haben, dürfte freuen, dass die HDBaseT-Spezifikation eine Kabellänge von bis zu 100 Metern zwischen zwei Geräten nennt. Bei der Verkabelung der Geräte untereinander geht HDBaseT andere Wege als HDMI, indem es nicht nur eine Punkt-zu-Punkt-Verbindung kennt, sondern Geräte lassen sich auch als Kette verbinden. Wer heute beispielsweise Blu-ray-Player, HDTV-Receiver und Festplatten-Player in einem Rack stehen hat, muss entweder drei HDMI-Strippen zum Fernseher ziehen oder einen HDMI-Switch (separater Umschalter oder AV-Receiver mit HDMI-Ports) dazwischen hängen. Bei HDBaseT wären die Zuspieler
untereinander verkabelt und nur von einem der Geräte liefe ein Kabel zum Fernseher.

Über die Verbindungsleitung sollen beispielsweise Fernseher auch gleich mit Strom versorgt werden können. Der genannte Wert von 100 Watt ruft bei einigen Experten jedoch Bedenken hervor. Bei Power over Ethernet ist aktuell bei 30 Watt Schluss.

So interessant alle diese Ansätze auch sind, muss man doch feststellen, dass viele Ideen bereits vorher von dem chinesischen HDMI-Konkurrenten DiiVA (Digital Interface for Video and Audio) realisiert wurden, mit dem sich c't im Artikel "Primadonna der AV-Schnittstellen" in Ausgabe 04/10 ausführlich beschäftigte. Hier kommen zwar proprietäre Stecker zum Einsatz, bei den Kabeln greift DiiVA aber auf CAT6-Kabel zurück. Als Mindestkabellänge, über die die Videosignale störungsfrei in voller Auflösung transportiert werden müssen, sind hier zwar nur 25 Meter genannt, diese Distanz dürften die meisten Heiminstallationen jedoch nicht überschreiten.

DiiVA schlägt HDBaseT aktuell bezüglich der Ethernetverbindung: Die bidirektionale Verbindung soll beim "chinesischen HDMI" mit über 2 GBit/s in beide Richtungen laufen und verschiedene parallel laufende Datenkanäle beherbergen. Auch USB ist bei DiiVA mit von der Partie, ebenso wie eine integrierte Stromversorgung – allerdings beschränkt auf 5 Watt. Bezüglich der Stern- beziehungsweise Kettenverkabelung ist bislang zwischen den beiden HDMI-Konkurrenten kein Unterschied auszumachen.

Laut HDBaseT Alliance sollen die ersten Produkte mit der neuen Schnittstelle bereits in der zweiten Jahreshälfte 2010 erhältlich sein, ein breiter Marktstart sei für 2011 geplant. Auch DiiVA könnte noch in diesem Jahr starten; die ersten Geräte werden auf jeden Fall zunächst in China auf den Markt kommen. Mit LG Electronics, Samsung und Sony sind übrigens drei der vier Gründungsmitglieder der HDBaseT Alliance auch DiiVA-Unterstützer.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
Intels HDCP-Videoverschlüsselung angeblich geknackt
« Antwort #17 am: 14 September, 2010, 09:48 »
Der von Intel entwickelte Kopierschutz High-bandwidth Digital Content Protection (HDCP) scheint überwunden zu sein, nachdem der vermeintliche "HDCP Master Key" anonym auf der Seite pastebin.com veröffentlicht wurde. HDCP dient zur verschlüsselten Übertragung von Videosignalen via DVI , HDMI, DisplayPort und anderen digitalen Schnittstellen.

Ist der Hauptschlüssel – eine 40 × 40-Matrix, bestehend aus 56-bittigen Hexadezimalzahlen – tatsächlich authentisch, würde HDCP seine Schutzfunktion verlieren, weil sich damit jeder beliebige andere HDCP-Schlüssel generieren ließe. In diesem Fall könnte man mit Hilfe eines Key Selection Vector (KSV) jeweils zwanzig Zeilen aus dieser Matrix auswählen und anhand einer bestimmten Rechenvorschrift einen privaten Schlüssel für eine HDCP-Quelle (HDCP Source) wie einen Blu-ray-Player oder eine Settop-Box errechnen; mit der transponierten Matrix lassen sich Schlüssel für HDCP-Senken (HDCP Sink) wie Displays und Beamer erzeugen.

Bereits im Jahr 2001 wurden offensichtliche Schwächen des von Intel entwickelten Authentifizierungs- und Verschlüsselungsverfahrens aufgezeigt. Wenig später behauptete der niederländische Kryptographie-Experte Niels Ferguson, den Master Key von HDCP ermittelt zu haben. Ferguson hatte damals seine Ergebnisse und die Entscheidung, diese nicht zu publizieren, an Intel übermittelt. Obwohl der Konzern ihn nicht mit einer Klage bedroht habe, hielt er eine Veröffentlichung für zu riskant, weil er bei Einreise in die USA eine Klage auf Basis des "Digital Millennium Copyright Act" (DMCA) fürchtete.

Die anfallenden Datenmengen, die durch die HDMI/DVI-Verbindung zwischen Zuspieler und Display rauschen, sind allerdings nicht zu unterschätzen. So kommen etwa bei der Übertragung eines 1080p24-Signals (24 Vollbilder pro Sekunde mit einer Auflösung von 1920 × 1080 Bildpunkten) rund 2,23 GBit pro Sekunde zusammen. Den Aufwand, diesen Datenstrom mitzuschneiden, können sich Kopierer ohnehin sparen: Der AACS-Kopierschutz der Blu-ray Disc ist ebenso wie der zusätzliche Blu-ray-Schutzmechanismus BD+ schon lange überwunden, sodass sich bereits die komprimierten Datenströme von den Scheiben kopieren lassen. Auch bei allen aktuell über Satellit und Kabel angeboteten Pay-TV-Angeboten existieren inoffizielle Lösungen, die den Einsatz nicht-zertifizierter Receiver erlauben.

Tatsächlich gab es bereits vor Jahren Geräte, die den HDCP-Schutz beseitigen. So stieß c't auf einen ebensolchen HDMI-DVI-Adapter, der es ermöglichte, etwa Blu-rays auch auf einem Display ohne HDCP-Unterstützung in voller Auflösung anzuzeigen. Der Hersteller dieses Adapters hatte sich dafür unter der Hand HDMI-Receiver-Chips besorgt, die eigentlich für Displays bestimmt waren. Chiphersteller Silicon Image als treibende Kraft hinter HDMI hatte damals angekündigt, die Abgabe der Prozessoren stärker überwachen zu wollen.

Für den HDCP-Hauptschlüssel dürften sich vor allem Unternehmen interessieren, die sich die HDCP-Lizenzgebühren sparen wollen oder Geräte mit Funktionen planen, die nach den Bestimmungen von HDMI Licensing eigentlich nicht gefertigt werden dürfen. (Raub-)Kopierer konzentrieren sich bei ihren Angriffen hingegen wohl weiterhin auf die genannten Stellen der Übertragungskette.

Quelle : www.heise.de
« Letzte Änderung: 14 September, 2010, 15:13 von SiLæncer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
Intel - HDCP-Master-Key ist echt
« Antwort #18 am: 17 September, 2010, 08:59 »
Der in dieser Woche im Internet aufgetauchte HDCP-Master-Key  ist echt, das bestätigte Intel-Sprecher Tom Waldrop gegenüber US-Medien. Mit dem Master-Key ist es möglich beliebige, gültige Geräteschlüssel zu erstellen.

"Wir können ihn nutzen um gültige Geräteschlüssel zu erstellen die mit dem HDCP-Protokoll interoperabel sind", sagte der Intel-Sprecher Cnet in Bezug auf den im Netz veröffentlichten GDCP-Master-Key. "Es scheint ein Master-Key zu sein", ergänzte Waldrop gegenüber Foxnews.

Das unter anderem bei HDMI eingesetzt und von Intel entwickelte HDCP-Protokoll (High-Bandwidth Digital Content Protection) lässt sich damit umgehen. Mit dem HDCP-Master-Key lassen sich beliebige Geräteschlüssel generieren, die gültig sind, so dass sich zumindest theoretisch Geräte bauen lassen die ohne entsprechende Lizenz per HDCP geschütztes Material abspielen können.

Praktisch gesehen ist das Ganze etwas komplizierter, denn laut Waldrop muss die Technik per Chip umgesetzt werden. Und das, so Waldrop, sei eine schwierige und kostspielige Angelegenheit. Angesichts der Tatsache das jeder, der Chips oder Geräte auf Basis des veröffentlichten HDCP-Master-Key verkaufen will, damit rechnen muss, das gegen ihn mit rechtlichen Mitteln vorgegangen wird, dürfte dies wirtschaftlich wenig attraktiv sein. Anders sähe es sicher bei Softwarelösungen aus.

Intel geht daher davon aus, dass das System auch weiterhin effektiv bleibt und genutzt wird.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
HDCP-Streams in Echtzeit entschlüsseln
« Antwort #19 am: 30 September, 2010, 16:15 »
Als Mitte September im Internet ein Generalschlüssel für die High-bandwidth Digital Content Protection (HDCP) auftauchte, bestätigte  Intel zwar dessen Echtheit, spielte die Relevanz im gleichen Atemzug aber herunter: Damit jemand etwas damit anfangen könnte, müsse er den Schlüssel in Silizium gießen, sprich einen Chip herstellen, erklärte Intel-Sprecher Tom Waldrop damals.

Dabei wollten es Informatiker der Stony Brook University nicht bewenden lassen. Sie haben ein Open-Source-Tool entwickelt, um herauszufinden, wie schnell ein PC sein müsste, um die HDCP-Transportverschlüsselung in Echtzeit loszuwerden. Dazu haben Rob Johnson und Mikhail Rubnich den HDCP-Algorithmus in ihrer Software implementiert und prüfen, wieviele HDCP-verschlüsselte Bilder (bei einer Auflösung von 640 × 480) ein einzelner CPU-Kern pro Sekunde entschlüsseln kann. Aus ihren Ergebnissen – auf etwas betagter Hardware (Intel Xeon DP5140 sowie Core 2 Duo CPU P9600) – schlossen die Informatiker, dass eine "High-End-CPU mit 64-Bit-Architektur" nebst 1,6 GByte RAM ausreichen müsste, um Full-HD-Material mit 30 Bildern pro Sekunde zu entschlüsseln.

Bei einem Test von heise online dekodierte ein aktueller Mittelklasse-Rechner mit Intel Core i5 750 (2,67 GHz) 281 Bilder/s bei 640 × 480 Pixeln; laut Johnson und Rubnich veranschlagt die volle HD-Auflösung 1080p30 (1920 × 1080 Pixel, 30 Bilder/s) circa die siebenfache Rechenleistung, sodass ein Core i5 im Zusammenspiel mit einer HDMI-Capture-Karte und passender Software ausreicht, um einen HDCP-geschützten HDTV-Datenstrom zu empfangen und zu entschlüsseln.

Tatsächlich dürften auch schwächere CPUs HDCP in Software entschlüsseln können, denn bisher haben die beiden Stony-Brook-Forscher lediglich Bit-Slicing implementiert; parallele Verarbeitung auf mehreren Kernen und Prozessor-Optimierungen fehlen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
Intel und AMD versetzen dem VGA-Port den Todesstoß. Ab 2015 wollen die beiden Unternehmen in ihren Produkten die analogen Displayschnittstellen VGA und LVDS nicht mehr unterstützen. Die Zukunft gehört DisplayPort und HDMI.
Zusammen mit Dell, Lenovo, Samsung und LG Display wollen Intel und AMD den Wechsel hin zu digitalen Displayschnittstellen wie DisplayPort und HDMI beschleunigen. Die analogen Schnittstellen VGA und LVDS werden 2015 voraussichtlich nicht mehr unterstützt, heißt es dazu in einer gemeinsamen Presseerklärung.

DisplayPort und HDMI erlauben den Bau kompakterer Notebookgehäuse, unterstützen höhere Auflösungen und eine größere Farbtiefe als die vor rund 20 Jahren eingeführte VGA-Schnittstelle, begründen die Unternehmen ihre Pläne. Darüber hinaus bieten die neuen digitalen Schnittstellen Vorteile im Hinblick auf die Leistungsaufnahme und bidirektionale Kommunikation.

Konkret will Intel die Unterstützung von LVDS in seinen Prozessoren und Chipsätzen bereits 2013, die der VGA-Schnittstellen 2015 einstellen. Bei AMD soll die LVDS-Unterstützung in den meisten Produkten ebenfalls 2013 wegfallen und zugleich zunehmend Produkte ohne VGA-Unterstützung auf den Markt kommen. Spätestens 2015 soll es dann keine AMD-Produkte mehr geben, die die alten analogen Schnittstellen unterstützen, was auch die Unterstützung für DVI-I beinhaltet.

Monitore, denen die neuen digitalen Anschlüsse fehlen, können mit entsprechenden Adaptern weiterhin an den digitalen Ausgängen betrieben werden. Die Displayhersteller Samsung und LG unterstützen die Pläne, ebenso die Computerhersteller Dell und Lenovo.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline mtron

  • Server-Admin
  • *
  • Beiträge: 1513
    • some debs
Das Märchen vom besseren HDMI-Kabel
« Antwort #21 am: 12 Januar, 2011, 11:20 »
Das Märchen vom besseren HDMI-Kabel

Analyse zeigt, dass man auf teure Digitalkabel getrost verzichten kann

Seit Jahrzehnten versuchen HiFi-Händler Käufer von Stereoanlagen zu angeblich besseren und damit auch teureren Kabeln zu überreden. Durch hochwertige Materialien würde die Leitfähigkeit verbessert, das (elektronische!) Signal vom Verstärker "neutraler, sanfter, kräftiger" an den Lautsprechern wiedergegeben. Fachmagazine führen eigene Ranglisten mit "besseren und schlechteren" Kabeln und rechtfertigen damit Preise, die jenseits von 1.000 Euro pro Meter liegen. Das geht soweit, dass manche Fachhändler scheinbar sämtliche physikalische Gesetze außer Acht lassen und darauf bestehen, dass etwa das Lautsprecherkabel die "wichtigste Komponente" bei einer guten Stereoanlage sei (Anm.: Hat der Autor tatsächlich erlebt).

Abzocke

Was schon im Analogzeitalter bei Röhrenverstärker und Transistorradio teils dubios anmutete, darf im Digitalzeitalter getrost als Abzocke etikettiert werden. Dies bestätigt nun auch eine Analyse von Digital Foundry. Wer einen Blu-ray-Player, einen PC oder eine Spielkonsole per HDMI-Kabel (oder DVI und Display-Port) mit seinem Fernseher oder Monitor verbinden möchte, wird mit einem 2-Euro-Supermarkt-Kabel und einem 1.000-Euro-Luxuskabel exakt die gleichen Ergebnisse erzielen. In seinem ausführlichen Test nimmt Technikredakteur Richard Leadbetter das Märchen vom "besseren HDMI-Kabel" schrittweise auseinander und weist nach, dass es bei einem Digital-Signal keine Qualitätsunterschiede geben kann. Entweder das Signal wird erfolgreich übertragen oder nicht, weil etwa eine Beschädigung vorliegt. Während bei Analog-Kabeln noch Faktoren wie die Abschirmung gegen externe Interferenzen eine Rolle spielen können, sei es bei HDMI-Kabeln unerheblich, ob die Hülle aus dickem oder dünnen Gummi oder Kontakte mit Gold beschichtet sind. Wer also nicht vor hat, seine Kabelverbindungen überaus zu strapazieren, könne bei einer üblich eingesetzten Kabellänge von bis zu vier Metern bedenkenlos zum günstigsten Angebot greifen. (Bei mehr als vier Metern müsse auf eine höhere Verarbeitungsqualität wert gelegt werden.)

Digital = besser

Leadbetter streicht auch heraus, dass man bei der Wahl zwischen analoger und digitaler Verbindung zu Bildsignalübertragung ganz klar auf letztere setzen sollte. Damit können die von der Quellenschnittstelle ausgesandten Informationen eins zu eins und Bit-genau an den Bildschirm übertragen werden. (zw)

Autor: Zsolt Wilhelm
Quelle: derstandard.at
Signatur
PC: lshw | Sats: 19.2° & 13°Ost (DiSEqC, 80cmØ Blech) | DVB-Soft: vdr 2.1.7 mit softhddevice via va-api
- Hauppauge Nova-T USB 2.0 Stick mit DiBcom DiB7700P Frontend, MT2060 tuner, Firmware
- TerraTec Cinergy S2 PCI HD mit STB0899 demodulator und Mantis VP 1041 PCI bridge
- TerraTec Cinergy S2 USB mit Montage DS3000 demodulator und IR-receiver,  Firmware
[close]

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Das Märchen vom besseren HDMI-Kabel
« Antwort #22 am: 13 Januar, 2011, 00:03 »
Zitat
Bei mehr als vier Metern müsse auf eine höhere Verarbeitungsqualität wert gelegt werden
...und auf die richtige Materialauswahl im Innern.

Bei grossen Kabellängen können nicht sauber eingehaltene Impedanzen sowie ohmsche und dielektrische Verluste zu nicht korrigierbaren Signalfehlern führen, die dann zu Aussetzern und Rucklern o.ä.
Nur sieht man diese inneren Qualitäten keinem Kabel an.
Auch das äusserlich fetteste Monsterkabel mit Ferrit, Warmwasserbeleuchtung und Gedöns kann viel zuwenig Kupfer oder ein schlechtes Dielektrikum (innerer Isolator) oder eine falsche oder zu ungleichmässige Geometrie desselben beinhalten.
Oder man hat's mal zu scharf geknickt oder irgendwie gequetscht.
Die digitale Fehlertoleranz von HDMI- oder DVI-Signalen ist begrenzt, gegenüber Signalreflektionen wie auch zu geringen Signalpegeln.
Ist eben digitale Hochfrequenz, was da passiert.

Und sicherlich hat der eine oder andere Leser schon mal die legendären (meist rötlichen) Pixelschwärme bei schlechten DVI-Verbindungen gesehen. Ein älteres und ziemlich kurzes DVI-Kabel (ehem. Originalzubehör) hat das auch bei mir schon reproduzierbar gezeigt, allerdings abhängig von den relevanten Einstellungen der Grafikkarte. Getauscht gegen ein nagelneues echtes Billigkabel von 5m Länge, endgültig erledigt...
Da HDMI weitgehend kompatibel mit DVI ist, nehme ich an, dass solche Störungen u.U. darüber auch vorkommen können.

Das einzig entscheidende Kriterium für den Käufer bleibt insofern die Herstellerangabe zum jeweils erfüllten HDMI-Standard, bezogen auf die Erfordernisse der zu verbindenden Geräte, und der konsequente Verzicht auf Verlängerungen bzw. Doppelkupplungen dafür.

Ach ja, monströs fette und/oder unflexible Kabel strapazieren die Gerätebuchsen auch mechanisch!

Und weiterhin gilt, ein vergoldeter Stecker hat in einer nicht vergoldeten Gerätebuchse nichts verloren, weil bei Korrosion durch Feuchte und Elementbildung stets das unedlere Metall zerstört wird. Hat schon mal einer eine HDMI-Buchse in irgendeinem Gerät ersetzen lassen? Das wird richtig teuer...
Übrigens schadet auch bei HDMI-Verbindungen eine winzige Menge reiner Vaseline wirklich nicht.
Bevor's gammelt...

Ich habe hier schon diverse billige / preiswerte HDMI-Kabel ab 1.3 getestet, teils bis hin zu 1080 60p, bis zu 5m lang, ohne irgendwelche Probleme.
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline spoke1

  • Alle angenehmen Dinge des Lebens sind entweder illegal, unmoralisch, teuer oder machen dick!
  • Premium-Cubie
  • ****
  • Beiträge: 2718
  • kaffeine Fan
    • skynetR32 Mod HP
Wireless HDMI mit USB-Signalübertragung
« Antwort #23 am: 12 April, 2011, 11:02 »
Asus hat mit Wavi eine Wireless-HDMI-Lösung vorgestellt, die zusätzlich zu Bild und Ton auch noch USB-Signale über eine Entfernung von bis zu 25 Metern überträgt. So können zum Beispiel beim Heimkino-PC die Tastatur und Maus weitab vom Rechner genutzt werden.

Das Asus Wavi besteht aus einer Sende- und Empfangseinheit. Sie sind mit jeweils einer einzelnen USB- und HDMI-Buchse ausgerüstet. Die Übertragung erfolgt im 5-GHz-Band. Nach Angaben von Asus lässt sich auf einer Distanz von bis zu 25 Metern ein Videosignal mit maximal 1080p damit übertragen. Das Gerät erfüllt nach Herstellerangaben die Anforderungen der WHDI-Spezifikation.
Die beiden Gehäuse des Wavi-Systems messen ungefähr 24,1 x 17,1 x 29 cm und werden jeweils über ein Netzteil mit Strom versorgt. Im Betrieb werden insgesamt 24 Watt benötigt. Darüber hinaus kann Asus Wavi auch USB-Signale drahtlos übertragen. So kann der Benutzer seinen PC auch aus der Ferne über eine Tastatur, Maus oder ein Gamepad steuern.

Asus Wavi soll ab sofort erhältlich sein und rund 200 Euro kosten. HDMI- und USB-Kabel liegen bei. (ad)


Quelle: http://www.golem.de/1104/82715.html
Produktiv:
ASRock K8S8X, Athlon64 3000+, 1GB Infineon Ram, WinFast A340 8X AGP, Samsung HD160 GB SATA2,
Technisat SkyStar 2, Stab HH100 Rotor und 5° & 19,2° Ost fest
BS: Mandriva-Linux (mdv) 2010.2 PP, kde 3.5.12, kaffeine 0.8.8, skynetR32

Bastelsrechner:
ASRock N570 SLI, Athlon64 X2 6000+ 4GB Geil Ram, EVGA GeForce G 210 Passiv (1GB DDR3, VGA, DVI, HDMI), Samsung HD 500GB SATA2, TT-budget S2-3200 PCI
BS: immer nur Pinguin freundliche

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
Man-in-the-Middle-Angriff auf HDCP-Kopierschutz gelungen
« Antwort #24 am: 24 November, 2011, 16:00 »
Forscher der Arbeitsgruppe für Sichere Hardware um Prof. Dr.-Ing. Tim Güneysu der Ruhr-Universität Bochum haben über einen Man-in-the-Middle-Angriff mit relativ wenig Aufwand das Schutzsystem der HDMI-Schnittstelle überwunden. Die von Intel entwickelte High-bandwidth Digital Content Protection (HDCP) dient zur verschlüsselten Übertragung von Videosignalen via DVI, HDMI, DisplayPort und anderen Schnittstellen.

Zwar war 2010 bereits ein HDCP-Master-Key aufgetaucht, der das geheime Kernelement des Verschlüsselungssystems bilden sollte. Die Herstellung eines HDCP-fähigen Chips mit Hilfe dieses Master-Keys ist laut Professor Güneysu jedoch hochgradig komplex und teuer. Er entwickelte daher gemeinsam mit Diplomand Benno Lomb eine eigenständige Hardware-Lösung auf Basis eines günstigen FPGA-Boards. Konkret kam das kommerzielle ATLYS-Board der Firma Digilent mit einem Xilinx Spartan-6 FPGA zum Einsatz, das über die notwendigen HDMI-Schnittstellen und einen seriellen RS-232-Port zur Kommunikation verfügt.

Bei ihren Studien sei es nie darum gegangenen, einen Weg zu finden, wie sich etwa illegale Kopien erstellen ließen. "Unsere Absicht war es vielmehr, die Sicherheit des HDCP-Systems grundlegend zu untersuchen und den tatsächlichen Aufwand für den kompletten Knockout finanziell zu bemessen“, berichtet Prof. Güneysu. "Dass wir in einer Diplomarbeit und mit Materialkosten von etwa 200 Euro unser Ziel erreicht haben, spricht definitiv nicht für die Sicherheit des aktuellen HDCP-Systems." Die angegebenen Kosten beziehen sich dabei darauf, was Studenten für das Board zahlen müssen; der reguläre Listenpreis beträgt 350 US-Dollar.

Dieser Man-in-the-Middle-Angriff, bei dem ein Mittelsmann (das ATLYS FPGA-Board) unerkannt die gesamte Kommunikation zwischen Blu-ray-Player und Flachbildschirm manipuliert, ist für Raubkopierer in der praktischen Anwendung allerdings eher uninteressant. So lassen sich Filme von Blu-ray Discs recht problemlos rippen; HDTV-Mitschnitte rücken einige Receiver wiederum freiwillig heraus. Und in diesen Fällen liegen die Daten komprimiert vor. Bei HDMI-Mitschnitten fallen hingegen horrende Datenmengen an.

Bereits kurz nach dem Start von HDMI waren zudem Boxen aufgetaucht, die HDCP aus dem digitalen Audio/Video-Datenstrom entfernten. Deren Hersteller hatten sich damals einfach offizielle Receiver-Chips besorgt, die eigentlich für den Einbau in Displays gedacht waren.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
HDCP-Kopierschutz ausgehebelt
« Antwort #25 am: 21 Februar, 2013, 18:30 »
Hacker Adam Laurie hat in seinem Blog gezeigt, wie sich mit sehr einfacher Hardware und ein paar Zeilen Code der HDCP-Kopierschutz aushebeln lässt.

High-bandwidth Digital Content Protection, kurz HDCP, wird für die geschützte Übertragung von Audio- und Videosignalen über digitale Videoschnittstellen wie HDMI, DVI und DisplayPort eingesetzt. Das Verschlüsselungssystem soll verhindern, dass Filme innerhalb der Übertragungskette zwischen Zuspieler und Display abgegriffen und mitgeschnitten werden.

Ein dem HDCP-Kopierschutz zugrunde liegende Generalschlüssel wurde bereits 2010 bekannt. Seinerzeit gab sich HDCP-Entwickler Intel allerdings zuversichtlich, dass sich der Kopierschutz auch dann nur mit einer teuren Hardware und passenden Chips mit festverdrahtetem Schlüssel aushebeln ließe.

Doch dass ein solcher Chip keine allzu große Hürde darstellt, bewiesen nur ein Jahr später Forscher der Ruhr-Uni Bochum: Sie entwickelten eine Hardware-Lösung auf Basis eines FPGA-Boards mit programmierbaren Xilinx-Chips. Über einen Man-in-the-Middle-Angriff überwanden sie damit den HDCP-Kopierschutz an einer HDMI-Schnittstelle.

Der ganze Artikel

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
HDMI 2.0: Das Chaos ist perfekt
« Antwort #26 am: 11 Oktober, 2013, 20:15 »
Eigentlich ist es Herstellern untersagt, mit der neuen Versionsnummer zu werben, was einige TV-Anbieter aber nicht davon abhält, die nächste HDMI-Generation offensiv zur Schau zu stellen. Doch stimmen die Aussagen der Hersteller tatsächlich mit der Realität überein?

Eigentlich sind die Anforderungen für einen echten Qualitätssprung von Full HD auf UHD klar definiert, die technischen Einschränkungen der aktuellen Display-Technologien macht diesen längst überfälligen Fortschritt aber unmöglich. Deshalb ruderte man jetzt zurück: UHD-Displays müssen einzig die UHD-Auflösung mit bis zu 60 Bildern pro Sekunde verarbeiten können – von einer besseren Farbdarstellung nahm man aber wieder Abstand. Ähnlich verhält es sich bei HDMI 2.0: Sobald das Display UHD-Bilder mit 60 Bildern empfangen kann, ist es "HDMI-2.0-ready", auch wenn es den Herstellern untersagt ist, mit der Aussage HDMI 2.0 zu werben.
 
In den Datenblättern finden sich weitere Randnotizen, die auf eine UHD-Auflösung mit 60 Bildern pro Sekunde im Farbformat 4:2:0 bei 8 Bit Farbtiefe hinweisen. Für den Fachmann ist damit klar: UHD-Auflösung ist bei diesen TV-Geräten möglich, die Farbauflösung wird aber auf ein Viertel der maximal möglichen Qualität reduziert. Durch diesen Trick reicht der aktuelle HDMI-Standard als Basistechnik aus: UHD-Signale in 60 Bildern bei einer Farbauflösung von 4:2:0 und Farbtiefe von 8 Bit lassen sich mittels herkömmlicher HDMI-Datenleitung übertragen – die Bezeichnung HDMI 2.0 ist damit ohne jegliche Bedeutung.
 
Als derzeit einziger TV-Hersteller legt Panasonic die Messlatte deutlich höher: Der TX-L65WT600E bietet mit "echter" HDMI-2.0-Unterstützung ausreichend Kapazität, um UHD-Signale mit 60 Bildern pro Sekunde in 12 Bit Farbtiefe und 4:2:2 Farbauflösung entgegenzunehmen. Mittels Testbildern lassen sich diese Unterschiede für den Endkunden sogar anschaulich visualisieren, allerdings bleibt abzuwarten, ob der Fachhandel von den Diskussionen um HDMI 2.0 nicht genauso überfordert sein wird, wie die Mehrzahl der Endkunden.

Quelle : DF

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
Displayport 1.3 A/V für 5K-Displays ist fertig
« Antwort #27 am: 15 September, 2014, 19:42 »
Das Branchengremium Vesa hat die Spezifikationen für Displayport 1.3 A/V endgültig beschlossen. Über nur ein Kabel können nun zwei 4K-Displays für PCs genutzt werden, oder einer mit 5K-Auflösung. HDMI 2.0 für geschützte Inhalte wird ebenso unterstützt wie Dockport.

Die Video Electronics Standards Association (Vesa) hat die Version 1.3 von Displayport 1.3 A/V verabschiedet. Diese bietet zahlreiche neuen Funktionen, vor allem wurde aber die Bandbreite erhöht, sie beträgt nun 32,4 Gigabit pro Sekunde. Dafür stehen vier Lanes mit je 8,1 GBit/s zur Verfügung. Das entspricht einer 50 Prozent höheren Datenraten als bei DP 1.2. Zu beachten ist dabei, dass hier stets unkomprimierte Signale übertragen werden, allein für das Bild stehen 25,92 GBit/s zur Verfügung.

Wenn Grafikkarte und Monitor die vier Lanes voll nutzen, kann über ein DP-1.3-Kabel auch ein 5K-Monitor wie der neue Ultrasharp von Dell angesteuert werden. Da Displayport weiterhin Multi-Stream-Transport (MST) unterstützt, kann auch ein 4K-Display in den Rechner angeschlossen werden, das einen weiteren Ultra-HD-Monitor über ein Kabel zwischen den Displays speist. An den Kabeln und Steckern ändert sich äußerlich nichts, 1.3-Kabel müssen aber auf die höheren Datenraten ausgelegt sein.

Auch die bekannten Adapter auf VGA, DVI und HDMI wird es weiterhin geben. Für HDMI ist auch die Unterstützung der Version 2.0 vorgesehen, sodass auch 4K-Fernseher damit angesteuert werden können. Die nötigen Kopiersperren für HDMI werden berücksichtigt, ebenso wie der Farbraum von 4:2:0, was für 8K-Fernseher bei den aktuellen Bandbreiten nötig ist.

Von der Unterstützung von AMDs Adaptive Sync, früher als Freesync bekannt, schreibt die Vesa in ihrer Ankündigung von DP 1.3 nichts. Die Technik für eine dynamische Synchronisierung für weniger Ruckler in Spielen - vergleichbar Nvidias G-Sync - ist jedoch schon seit Displayport 1.2a Teil des Standards. AMDs Dockport, das USB 3.1 und Stromversorgung per DP ermöglicht, ist jedoch ausdrücklich für Displayport 1.3 vorgesehen. Wann erste Geräte mit DP 1.3 erscheinen sollen, sagt die Vesa nicht, der bereits erwähnte Dell-Monitor ist jedoch ein Kandidat dafür.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 158890
  • Ohne Input kein Output
    • DVB-Cube
HDMI 2.0a unterstützt HDR für realistischere Bilder
« Antwort #28 am: 10 April, 2015, 15:58 »
Die neue Spezifikation für HDMI in Version 2.0a ist fertig. Sie sieht Erweiterungen vor, mit dem sich Videos mit High-Dynamic-Range-Formaten übertragen und darstellen lassen. Vorgesehen ist das vor allem für neue 4K-Fernseher.

Das HDMI-Forum hat die Spezifikation 2.0a der Multimediaschnittstelle veröffentlicht. Neu ist vor allem. dass nun HDR-Formate unterstützt werden. Als Grundlage dient der als Erweiterung für Übertragungsformate ausgelegte Standard CEA-863.3. Der US-Unterhaltungselektronikverband CEA hatte die Erweiterung Ende Januar 2015 beschlossen, nachdem auf der CES erste HDR-Inhalte angekündigt wurden, für die sich unter anderem Netflix, LG und Sony einsetzen.
HDR nur mit neuen 4K-Fernsehern

HDR soll für feinere Abstufungen in sehr hellen und sehr dunklen Bildbereichen sorgen und den In-Bild-Kontrast in Fotos und Videos insgesamt verbessern. Dafür benötigen die TV-Displays sogenannte 10-Bit-Panels und das HDMI-Signal muss die 10 Bit pro Farbkanal übertragen.

Zusätzlich besitzen die HDR-Displays kräftigere Farben, was LCDs üblicherweise mit sogenannten Quantenpunkten oder alternativ mit speziellen Phosphoren im LED-Backlight erreichen. Und sie benötigen ein lokal dimmbares Backlight mit mindestens doppelt so hohen Leuchtdichten wie bisher. So hatte Displayspezialist Samsung auf der CES im Januar gegenüber heise online erklärt, dass die HDR-fähigen SUHD-Fernseher punktuelle etwa 1000 cd/m2 hell leuchten – erzielt durch effizientere LEDs und eine lichtdurchlässigere Pixelstruktur.

Weil die neuen HDR-fähigen Displays die Leuchtdichte anhand von Metadaten im per HDMI 2.0a übermittelten Datenstrom anpassen müssen, benötigen sie eine spezielle Decoder-Hardware. Diese steckt nicht in älteren Geräten und ist für diese auch nicht nachrüstbar. Soll heißen: Von HDMI 2.0a profitieren nur Besitzer ausgewählter, brandneuer TVs wie Samsungs SUHD-Spitzenmodelle aus der 9500er Serie.

Erste Inhalte mit Superkontrasten gibt es aber schon, beispielsweise von Netflix: Dessen Eigenproduktion "Marco Polo" ist bereits in HDR gedreht, ebenso die dritte Staffel von "House of Cards". Bisher war Streaming direkt an Ultra-HD-Fernseher der einzige für HDR vorgesehene Verbreitungsweg. Hinweise auf HDR finden sich aber auch in geleakten Spezifikationen der 4K Blu-ray Disc. Wie bei HDMI 2.0a soll dort der HEVC-Codec (H.265) zum Einsatz kommen, der HDR beherrscht.

Quelle: www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )