iGPU und Grafikkarte gemeinsam nutzen?

  • Seit langem mal wieder hier da ich ein kleines Problem habe.

    Hatte den Fall noch nicht und mich darum noch nie damit beschäftigt.

    Ich hab meiner Freundin als Weihnachtsgeschenk einen Rechner zusammen gebaut.

    Da die Grafikkartenpreise jenseits von gut und böse sind habe ich erst mal eine 4GB GTX 960 genommen die ich noch habe.

    CPU ist ein i5 Kaby Lake mit HD Graphics 630. Der ist was decoding bzw Film/Video schauen halt besser als die olle GTX 960.

    Nun dachte ich das es kein Problem ist iGPU und GTX gleichzeitig zu nutzen.

    Aber ist wohl doch nicht so einfach und im BIOS hab ich nur:

    Stelle ich auf Auto wird mir "Intel HD Graphics" im Gerätemanager nicht angezeigt (also wohl abgeschaltet).

    Stelle ich auf "Internal Graphics" erscheinen beide GPU's - aber die Intel auch nur dann wenn ein Monitor angeschlossen ist.

    Muss ich zum spielen mit der GTX auch den Monitor an diese hängen? Zumindest lese ich überall das da der Monitor dran gehört.

    Der Kaby Lake macht doch 4096x2304@60Hz am DisplayPort...

    Kann man den Spielen nicht einfach sagen die sollen die GTX nutzen und die Ausgabe kommt aus dem Motherboard DisplayPort?

    Ich finde auch beim Board und der GTX keine Info welche HDMI-, DisplayPort- bzw HDCP-Version?

    https://www.gainward.com/main/product/v…fea89b7f6a7.pdf

    Ich würde sagen ungefähr ein halbes Gramm zu schwer am Griff.

    It's like a jungle sometimes it makes me wonder How I keep from going under.

    You know the problem with these gyms now? Health clubs for waffle eatin’ pussies.

  • Welcome back! Lange nicht mehr gelesen!

    Und wenn du das letzte auswählst? Ich hab ja auch beides laufen: GTX680 und Intel Iris Pro

    Bloss hab ich leider noch nicht herausgefunden wie ich erzwingen kann das Spiele mit der onboard gerendert werden, leider...

    Und ja, das geht du kannst die GPU nutzen für das rendering und die Ausgabe über onboard. Weiss leider grade aus dem Stehgreif nicht wie.

  • PCIE bzw PEG hab ich nicht versucht da ich davon ausgehe das dann erst recht die iGPU deaktiviert wird wenn man die GTX auf primary setzt.

    Das Auswählen soll wohl mal im NVIDIA Control Panel möglich gewesen sein:

    Das hab ich allerdings nicht und jetzt macht man das wohl direkt in Windows.

    Ideal wäre halt wenn alles erst mal über iGPU läuft und ich nur die Spiele auf die GTX setzen kann.

    Ich glaub BIOS POST wird auch nicht auf der GTX ausgegeben wenn ich "Internal Graphics" als primary auswähle.

    Kann es aber erst morgen Abend noch mal genauer testen da ich nicht Zuhause bin.

    Also zumindest im MPC-HC kann ich auswählen zwischen Intel und GTX wenn ich Intel als primary habe und den Monitor eben am board.

    Ich dachte halt das das mit den Spielen nicht hin haut wenn man am board hängt und zum spielen die GTX nutzen will,

    weil ich halt überall lese das man den Monitor an die Grafikkarte hängen muss.

    Muss das noch mal mit zwei Monitoren testen.

    Gibt ja da auch diese HDMI Dummy's die man bei Servern nutzt wo kein Monitor dran hängt aber wo man trotzdem QuickSync nutzen will.

    Wirklich viel Infos finde ich zu dem Thema nicht.

    Immer wieder antworten wie das Board müsse das unterstützen bzw das sei Laptops vorbehalten.

    Ich würde sagen ungefähr ein halbes Gramm zu schwer am Griff.

    It's like a jungle sometimes it makes me wonder How I keep from going under.

    You know the problem with these gyms now? Health clubs for waffle eatin’ pussies.

  • Also soweit ich mich erinnern kann muss du PCIe Graphics als primary auswählen und dann im Windows irgendwo (im Treiber?) einstellen das die Ausgabe auf der onboard Grafik erfolgen soll. Ich glaube das geht nur unter Windows nur ab Version 10 und später. Aber wie gesagt, ich wiess es nicht genau. War für mich bisher noch kein Thema.

    Natürlich kommt auf der GTX kein Signal im Boot wenn du internal als Primary auswählst. Wie gesagt, das passiert im OS, das du die GTX über die onboard ausgibst

    Lies dir hier mal den ersten Post durch und schau das verlinkte Video:

    https://linustechtips.com/topic/1014262-…i-made-it-work/

    Viel Erfolg!

    Einmal editiert, zuletzt von Kaitou (18. Dezember 2021 um 08:50)

  • Werde mir das Video heute Abend ansehen.

    Da im Thread gibts auch ein Bild von der Einstellung wo man es in Windows einstellen kann (welches Programm was nehmen soll):

    https://linustechtips.com/topic/1014262-…omment-14367152

    Hab jetzt allerdings gelesen das die iGPU die Grafikkarte aus bremst wenn man den Monitor ans Board hängt.

    https://spacehop.com/can-i-use-inte…phics-together/

    Zitat

    The short answer is that the dedicated graphics card, which is a much faster unit, will end up hitting a bottleneck every time it delegates performance to the slower card, which will be your integrated controller. The rest of your system will then continue to play catch up in order to improve your frames per second rate.

    Ich würde sagen ungefähr ein halbes Gramm zu schwer am Griff.

    It's like a jungle sometimes it makes me wonder How I keep from going under.

    You know the problem with these gyms now? Health clubs for waffle eatin’ pussies.

    2 Mal editiert, zuletzt von Paradise (19. Dezember 2021 um 11:08)

  • Was mir nicht so ganz klar ist warum die interne Intel-Grafik besser zum Videos schauen geeignet ist als die GTX 960. Worin äußert sich das?

    Permanent aufgebaut:
    A7V133, Athlon 1,4GHz, 512MB, GeForce3 Ti200 128MB, SB Live! X-Gamer
    Für die LAN:
    TUSL2-C, PIII-S 1,4GHz, 512MB, GeForce2 GTS 32MB, 2x Monster II 12M, SB Live!
    TUSL2-C, PIII-S 1,4GHz, 512MB, GeForce2 GTS 32MB, 2x Monster II 12M, SB Live!
    CUSL2-C, PIII 933MHz, 512MB, G400 Max 32MB AGP, 2x 3D Blaster Voodoo² 12MB, SB Live!
    CUSL2-C, PIII 933MHz, 512MB, G400 Max 32MB AGP, 2x Monster II 8MB, SB Live!

  • Wahscheinlich ein modernerer ASIC im Kontext von Intel QuickSync. Da kanns dann z.B. sein, daß der Intel Chip 10-bit H.265 in 4K in Hardware übernehmen kann, die GeForce aber nicht. Würdest dann die GeForce nehmen, würde die ganze Last auf die CPU zurückfallen. Das kann die CPU überlasten oder im weniger schlimmen Fall halt einfach viel Strom verbrennen.

    Hängt natürlich immer davon ab wie alt/neu die betreffenden GPUs sind und was die für ASICs haben. Aber bei der HD Graphics 630 vs. die GTX 960 könnte ich mir schon vorstellen daß der Intel Chip neuere, aufwendigere Codecs beschleunigen bzw. ganz übernehmen kann. Hab's mir aber nicht im Detail angeschaut.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • Ok, verstehe.

    Permanent aufgebaut:
    A7V133, Athlon 1,4GHz, 512MB, GeForce3 Ti200 128MB, SB Live! X-Gamer
    Für die LAN:
    TUSL2-C, PIII-S 1,4GHz, 512MB, GeForce2 GTS 32MB, 2x Monster II 12M, SB Live!
    TUSL2-C, PIII-S 1,4GHz, 512MB, GeForce2 GTS 32MB, 2x Monster II 12M, SB Live!
    CUSL2-C, PIII 933MHz, 512MB, G400 Max 32MB AGP, 2x 3D Blaster Voodoo² 12MB, SB Live!
    CUSL2-C, PIII 933MHz, 512MB, G400 Max 32MB AGP, 2x Monster II 8MB, SB Live!

  • Matrox Mystique, hier bei NVDEC siehst du welche Codecs die Nvidia Karten können:

    https://developer.nvidia.com/video-encode-a…port-matrix-new

    Hier siehst du was die Intel Prozessoren können:

    https://en.wikipedia.org/wiki/Intel_Qui…ng_and_encoding

    Will man eine Nvidia Karte die alles kann dann muss man tief in die Tasche greifen (RTX 3070 / 3080 / 3090)

    Eine 960 Ti machte weder VP9 noch HEVC.

    Wenn ich jemandem einen Rechner ohne Grafikkarte zusammen baue dann ist hardware accelerated decoding ein wichtiger Punkt.

    Für Briefe schreiben, Mails lesen und Facebook oder was die meisten so machen langen die heutigen Prozessoren ja dicke.

    Problem ist nur das ganze Video Zeug wie YouTube, Netflix, Disney+ usw.

    Der ganze 10-bit, 12-bit, UltraHD und HDR Kram machts nicht einfacher.

    Allerdings war es gut das du nachgefragt hast.

    Darum hab ich nämlich noch mal in die Tabelle geschaut und gemerkt das ich in der "960 Ti" Spalte war.

    Ich habe aber eine nicht "Ti" und die kann VP9 und HEVC. Zwar nicht 10/12-bit und auch kein 4:4:4, aber das ist denke ich erst mal egal.

    Trotzdem wäre es interessant das ganze zum laufen zu bekommen.

    Ich kann mich erinnern das es als die iGPUs kamen es Boards gab die man mit einem speziellen Programm nutzen konnte. Mir fällte der Name aber nicht mehr ein.

    Ich würde sagen ungefähr ein halbes Gramm zu schwer am Griff.

    It's like a jungle sometimes it makes me wonder How I keep from going under.

    You know the problem with these gyms now? Health clubs for waffle eatin’ pussies.

  • 12-bit und 4:4:4 (also Video ohne Chroma Subsampling) existiert doch in freier Wildbahn eh so gut wie nicht? Sowas benutzen nur "sehr spezielle" Menschen, also die, die sich auch "bessere" digitale Audiokabel kaufen. ;) Nicht daß 4:4:4 sinnfrei wäre, aber das ganze QUELLmaterial kommt ja schon chroma-subsampled aus'm Mastering in 4:2:0. Das dann in 4:4:4 zu vertreiben ist doch nur Platz-/Bandbreitenverschwendung?

    Oder gibt es irgendwelche Streamer die sowas heutzutage wirklich für ihre Eigenproduktionen machen? Ich kenne keinen. Wäre auch blöd für die, weil der visuelle Unterschied ist schwer bis kaum zu erkennen, dafür frisst es aber im Falle von 4:4:4 +100% (!) Bandbreite. Auf der BD4K findest sowas ebenfalls nicht, ist auch nicht im Standard. Weder HDR10+ noch DolbyVision HDR fordern es, weder 12 Bit pro Farbe noch 4:4:4.

    10-bit H.265/HEVC bis rauf zu 4K/UHD in 60fps, 8-bit H.264/AVC und VP9, darauf würde ich schauen. Wer auf Zukunftssicherheit achten will, der schielt vielleicht noch auf den neuen AV1 Codec. Der wird langsam auch schon in GPU ASICs gegossen.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • Ich finde es so dermaßen krass das die Quadro basierend auf der Geforce FX 5700 in meinem laptop einen FullHD Film beschleunigen kann. War scheinbar die erste HD accelerated Generation von nvidia. 1080p spielt er ab. Grade so. Auf nem Pentium M 2.0GHz

    Ich weiss es ist offtopic, aber ich wollte deshalb jetzt keinen eigenen Thread öffnen

    GrandAdmiralThrawn

    Weisst du zufällig wie ich den "Renderer" bei Spielen zwischen interner Iris Pro und GTX680 wählen kann? (OS ist Win7 64Bit)

  • Ich muß leider sagen, ich habe nicht die mindeste Ahnung. Ich habe keine Erfahrung mit mobilen Spielesystemen, ich habe sowas nie benutzt. Ich gehe davon aus, daß modernere Windows Systeme (10, 11) sowas als Auswahl auf der GUI anbieten, aber bei Windows 7... gar keine Ahnung. Sollte das nicht von nVidia Optimus automatisch erledigt werden?

    Ich kann da auch nur blöd im Netz rumsuchen. Scheinbar gibt es aber eine manuelle Option im nVidia Treiberpanel dafür, [siehe hier]. Der Artikel zeigt den generischen "Windows 10 Weg" und dann auch noch wie das mit dem nVidia Treiberprogramm gehen sollte. Letzteres funktioniert vielleicht auch auf Windows 7.

    Aber: Keine Garantie. Wie gesagt nicht mein Feld.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • GrandAdmiralThrawn,

    4:4:4 hab ich nur mal aufgezählt. AV1 ist bei YouTube mittlerweile stark verbreitet.

    Also VP9 und AV1 sind da schon wichtig für 4K und HDR.

    Und ich mags auch einfach wenn alles geht was machbar ist.

    Ich hab jetzt etwas rum probiert und bin etwas verwundert.

    Hab den Monitor in die Nvidia gesteckt und hatte neu gebootet und hatte BIOS POST.

    Bin ins BIOS weil ich dachte ich hätte die Nvidia auf primary - was aber nicht der Fall war.

    Also BIOS geht, egal wo ich den Monitor anschliesse.

    Dann habe ich noch eine Einstellung entdeckt die ich übersehen habe:

    Ich kann die iGPU also aktivieren und deaktivieren. Hatte das auf "Auto" und da war die iGPU in Windows weg (bei Nvidia als primary).

    Dachte schon ich brauch so ein Asus Board mit goldenen Kühlern, Militär Kondensatoren und Spulen mit NASA Legierung :D

    Ich liebe diese Fujitsu Boards immer mehr (ist nämlich eins).

    Was leider nicht geht ist D3D11 in Verbindung mit madVR um HDR in nicht HDR umwandeln.

    Meine Workstation packt das mit "Intel UHD 610" und D3D11 (obwohl für madVR eigentlich zu schwach).

    Der Rechner hier jetzt mit "Intel HD 630" macht mit DXVA2 einen Haufen dropped frames (ist bei der Workstation auch so) und mit D3D11 laufen die Videos in Zeitlupe.

    Jetzt weiß ich halt nur nicht ob ich den Monitor ans Board oder die Nvidia hängen soll.

    Bzw mich stört halt die Aussage:

    Zitat

    The short answer is that the dedicated graphics card, which is a much faster unit, will end up hitting a bottleneck every time it delegates performance to the slower card, which will be your integrated controller. The rest of your system will then continue to play catch up in order to improve your frames per second rate.


    Kaitou, bei Win 7 sollte es wohl im Nvidia Panel sein wie auf dem Bild in meinem zweiten Post.
    Bei Win 10/11 eben so wie im Linus Video bzw wie hier auf dem Bild:

    https://linustechtips.com/topic/1014262-…omment-14367152

    Ich würde sagen ungefähr ein halbes Gramm zu schwer am Griff.

    It's like a jungle sometimes it makes me wonder How I keep from going under.

    You know the problem with these gyms now? Health clubs for waffle eatin’ pussies.

  • [...] Was leider nicht geht ist D3D11 in Verbindung mit madVR um HDR in nicht HDR umwandeln. [...]

    Ich habe zwar auch madVR drauf auf meinem alten XP x64, und die Titan Black schafft das Tonemapping auch locker in 4K, aber ich wandle das dennoch in Software offline um. Mit einer in ffmpeg reingelinkten libzimg. Mobius Tonemapper, recht hochwertig. Dafür hast dann zwei Dateien rumliegen wenn du alles willst. Eine mit und eine ohne HDR. madVR ist halt der einfach Weg raus am PC.

    Kaitou : Dann leider auch keine Ahnung, wenn Windows 7 das noch nicht selber kann...

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"