Consumul de curent este usor mai mic sau egal la PC-urile noi, fata de cele vechi.
Consumul de curent este ifluentat mai mult de reglajul standby a ecranului, respectiv a pc-ului.
EVIDENT! Consuma pe GeForce Now ca si cum ai sta pe YouTube, nimic mai mult.
Da, consumă ceva mai puțin.
Nu, ori că plătești GeForce now ori că plătești factura mai mare cu 20 de lei, aceeași jucărie cu altă pălărie, plus că la GeForce now oricât de avansată e tehnologia asta vei avea un lag dat de distanța până la server, deci dacă te conectezi la un server din Guatemala primești cadrele alea după 50-100ms.
După părerea mea consumul de curent îl dă sursa de la PC, în funcție de cât este solicitată de componentele din interior. Adică dacă faci un calcul, la o sursă de 750 wați care este solicitată la maximum, înseamnă 750 wați într-o oră deci la 10 ore de funcționare 7, 5 KW, înmulțit cu 30 de zile (presupunând că stai 10 ore pe zi la calculator) înseamnă 225 de kilowați. Însă niciodată sursa nu va trage curent maxim. Un calculator consumă aproximativ 200 wați oră. Poți să te joci astfel cu calculele în funcție de cât stai pe PC timpul mediu pe zi. Deci la sursa respectivă e cam scump să stai mult timp pe PC, nu mai zic de sursele de 1000 de wați. Apoi la faza cu cloud gaming sau gaming instalat pe desktop, părerea mea este că diferențele de consum nu sunt mari, acestea fiind date doar de consumul plăcii video, celelalte componente (placă de bază, procesor, ssd, coolere etc) oricum consumând curent. Nimeni nu îți va putrea spune cu precizie diferențele de consumuri după cum ai formulat întrebarea. Singura soluție este montarea între priză și calculator a unui contor de putere. Citește aici: https://www.dab-it.ro/blog/cat-curent-consuma-un-calculator și aici:
https://www.pchouse.ro/......atorul-ta.
Acesta este răspunsul corect. Părerile între consumul pe cloud gaming vs traditional sunt împărțite. Unii spun că pe cloud consumul creste, insinuând că data-center-eleproceseaza cantități uriașe de informații și de aici consum imens de energie (nu vad ce legătură are cu userul final). Alții susțin același lucru menționând că pe lângă conexiune și transfer dual cu cloud-ul, placa ta video și CPU-ul (ca și RAM-ul) procesează informațiile trimise și primite din cloud pentru a-ți afișa ție jocul. Diferenta nu este clară nici în momentul de față și ar putea fi insignifiantă pentru timpi relativ scurți (aducă nu stai 24/24 on). Chiar dacă la sistemele moderne se încearcă limitarea dpdv "eco" (cum spun producătorii) al consumului anumitor componente, nu este mereu o realitate. Un sistem vechi, cu o sursă de 600W și componente cu un consum total de 450W sa zicem, va consuma oriunde in plaja de 450-600W. Un sistem modern, cu putere de procesare mare, cu sursa de 1000W+ și briz-briz-uri colorate peste tot, ca pomul de Crăciun, evident, va avea un consum energetic mai mare per ora, raportat la procesele executate.
Încă ceva. Cineva a scris că "consumul de curent este influențat mai mult de reglajul de stand-by a ecranului respectiv PC-ului". Este adevărat în termeni our tehnici și matematici, pe de altă parte consumul in standby este nesemnificativ. Toți au televizoarele in priza in standby și nu au aruncat averi pe curent. Un simplu încărcător de telefon lăsat în priză consuma 5W aproximativ, fara a fi conectat la un telefon. Consum de pierdere există dar vorbim in Watt-i și poate zeci de Watt-i, nu kW/h.
RobocopBuisness întreabă: