@oskarus na jednym z forów nt. komputerów padło pytanie o tym na czym polega ograniczenie procesora przez kartę graficzną. Tutaj są odpowiedzi jednego z tamtejszych użytkowników.
Cytat:Zjawisko polega na różnicy (ilorazie) mocy obliczeniowej procesorów (graficznego i centralnego). Przeciętny procesor centralny osiąga moc obliczeniową rzędu 10 GFlops, dobry ok 20 GFlops, wydajny ok 40 GFlops. Natomiast procesor graficzny to wyspecjalizowana jednostka, o innej architekturze i przeznaczeniu, charakteryzująca się znacznie większą mocą obliczeniową. Dla przykładu dzisiejsze wydajne karty osiągają moc rzędu 2000GFlops, czyli 100-ukrotnie więcej niż przeciętny CPU. Oznacza to, że procesor centralny nie nadąża z obliczeniami względem możliwości obliczeń procesora graficznego. Im mniejsza różnica w tym stosunku tym lepiej.
Cytat:Zjawisko ograniczanie karty przez procesor jest zależne od kilku czynników (np ograniczenia kontrolera, komunikacja NB z procesorem i grafiką i innych bla bla bla). Możnaby o tym pisać wiele, ale w WIELKIM uproszczeniu przybliżyłem (przynajmniej starałem się przybliżyć) autorowi o co chodzi od strony technicznej, bo o to prosił. Od strony łopatologicznej wyjaśnili mu to koledzy nade mną.Myślę, że takie dowody wystarczą.
Hałewer, posunąłbym się jeszcze dalej i podał uproszczoną kalkulację obliczenia zjawiska ograniczania karty przez procesor, co zresztą nie będzie trudne. E = moc karty / moc procesora. Im mniejszy ten iloczyn tym lepiej, jednakże do pewnego momentu. Po przekroczeniu pewnej granicy procesor ma już bardzo mały wpływ na obliczenia graficzne.
Rozsądną granicą jest wynik działania między 25 a 50, który nie powinien ograniczać grafiki, natomiast wynik pomiędzy 50 a 100 jest wynikiem, w którym procesor (w zależności od wyniku) ogranicza lub może ograniczać kartę graficzną.