Skocz do zawartości


Zdjęcie

O wyższości X360 nad PS3 słów kilka...


  • Zaloguj się, aby dodać odpowiedź
2 odpowiedzi w tym temacie

#1 cicinho

cicinho

    Początkujący

  • 24 postów

Napisano 05 10 2008 - 17:11

TEKST POKAZUJĄCY NAM MOC OBYDWU KONSOL. CAŁKIEM OBIEKTYWNY ARTYKUŁ ZE STRONY POLYGAMIA.PL.

PS3 jest bardziej zaawansowana graficznie niż 360-tka

Fill rate (prędkość wypełniania) to jeden z najważniejszych mierników wydajności graficznej - w skrócie, jest to liczba oznaczająca ile operacji na pikselach możesz wykonać. W przypadku PS3 fill rate jest znacznie niższa aniżeli na 360-tce, co oznacza, że gry muszą albo działać w niższej rozdzielczości albo też używać mniej złożonych shaderów aby uzyskać taką samą efektywność. Dodatkowo przetwarzanie shaderów na PS3 jest znacząco wolniejsze aniżeli na 360-tce, co znaczy, że użycie normal map zużywa o wiele większą część fill rate aniżeli na Xbox’ie. I nie mówię tu o małych różnicach, ale o niemal połowie całkowitej mocy przetwarzania pikseli.

OK, dobra, ale Cell jest super-potężny!

W teorii - tak, ale w rzeczywistości to nie działa w ten sposób. Kod gry po prostu nie dzieli się dobrze pomiędzy wiele procesorów. Prawdopodobnie można znaleźć sposób na proste rozdzielenie kilku rzeczy - przerzucić audio na jeden z procesorów, animacje na inny, ale generalnie podział, tak czy inaczej, pozostawi kilka jednostek SPU nieczynnymi lub wykorzystanymi w niedostatecznym stopniu. Poza tym to nie procesor jest czynnikiem ograniczającym grafikę w grach - to fill rate.

No dobra! Blue-Ray!

Świetny do oglądania filmów, ale wcale nie taki dobry dla gier. Odczytywanie danych z napędu Blue-Ray zabiera, mniej więcej, dwa razy więcej czasu aniżeli pozyskanie ich z napędu DVD Xbox 360. Przekłada się to na dłuższe czasy ładowania lub, boże broń jeśli streamujesz coś z dysku, bardziej restrykcyjne limity ilości danych jakie możesz streamować.

Ale on ma znacznie większą pojemność niż DVD!

OK, tu mnie macie - Blue-Ray ma znacznie większą pojemność i tutaj właśnie jest potencjał by użyć go na coś fajnego, ale niewielkie są szanse po temu, żeby zostało to jakoś sensownie wykorzystane. Istnieją niezliczone techniki kompresji, i ja osobiście, zwróciłbym się w stronę pozyskania danych prędzej aniżeli zwiększania ich ilości. Większość developerów, którzy używają całego dysku Blue-Ray robią to by obejść inne problemy z PS3, takie jak długie loadingi - dla przykładu w Resistance: Fall of Men każdy element graficzny używany w grze nagrany został kolejny raz dla każdego levelu, w którym jest wykorzystywany. Zamiast więc nagrać jedną kopię tekstury nagrywasz ją 12 razy. Jeśli usunąć z gry wszelkie duplikowane dane swobodnie zmieściłaby się ona na DVD. Robią to [developerzy] po to aby skrócić czasy ładowania, które, jak wskazywałem wcześniej, są potwornie długie na PS3. W tym wypadku dodatkowa przestrzeń [dysku] jest całkowicie zmarnowana.

Jak tylko developerzy rozgryzą PS3 zaczną optymalizować kod pod sprzęt i to będzie niesamowite!

Podejrzewam, że pewna niewielka ilość twórców zoptymalizuje kod pod hardware tak, by osiągnąć coś fajnego. Jednakże będą to tylko wyjątki od reguły i, prawdopodobnie, będą one spowodowane celowym i przemyślanym projektowaniem gry pod sprzęt sprokurowany przez Sony. Czy okażą się one być dobre czy nie, to już całkiem inne pytanie.
Większość badań nad wydajnością hardware’u PS3 skupia się na ułatwieniu twórcom osiągnięcia tego poziomu wydajności, który na X360 osiągany jest całkiem naturalnie. Na przykład niektórzy twórcy używają dodatkowych SPU w celu przygotowaniu danych do renderu. Zasadniczo biorą dane, które normalnie posłaliby wprost do chipa graficznego, wysyłają je do SPU, który optymalizuje je w pewien sposób i dopiero wówczas przesyłają je do kości grafiki. Raz jeszcze więc widzimy “przewagę” w używaniu sprzętu do “nadrabiania” tego, co zostało zepsute w innych obszarach - to rzecz “normalna” w PS3. Wszystko to dodaje dodatkową klatkę/ramkę w opóźnieniu renderu, co sprawia, że kontroler [w domyśle - używany przez gracza] reaguje później.
Tak więc powszechnym problemem jest: twórcy muszą poświęcać znacząco więcej czasu i zasobów na uzyskanie od PS3 tego, co 360-tka może zrobić łatwo i używając znacznie mniej kodu. Spójrzmy jak to się przekłada na realną praktykę, w tym momencie:
Dlaczego wersje [gier] na PS3 są często słabsze w porównaniu z wersjami na Xbox 360 oraz czemu gry ekskluzywne często ssą [suck]:
Jak nakreśliłem powyżej, uzyskanie podobnej wydajności na PS3 wymaga znacznie większej ilości pracy poświęconej tej tylko platformie i, w wielu wypadkach, nawet pomimo zastosowanych tricków wciąż nie udaje się uzyskać odpowiedniego wyniku. W taki sposób wiele gier na PS3 otrzymuje uproszczone shadery oraz działają w niższych rozdzielczościach natywnych aniżeli ich wersje na 360-tce. Na wierzchu tego wszystkiego jest jeszcze jeden czynnik zniechęcający do wykonania tej pracy - PS3 się nie sprzedaje.
Kod potrzebny do zmuszenia PLAYSTATION 3 do pracy, z ogromnym prawdopodobieństwem, będzie bezużyteczny na innych platformach, ponieważ tricki jakich musisz użyć są jedyne w swoim rodzaju i mało prawdopodobne by przydały się przy jakiejkolwiek innej architekturze teraz lub w przyszłości. Wszystkie te problemy biorą się z nieprawidłowego projektowania sprzętu, a każdy hardware w przyszłości, który będzie równie nie-zbalansowany będzie prawdopodobnie również nie-zbalansowany w swój unikalny sposób.

Na koniec - istnieje jeszcze problem zasobów. Tworzenie gier jest, w swoim najgłębszym sensie, zadaniem z zarządzania zasobami. Mając skończoną ich ilość mam wykorzystać pięciu inżynierów do pracy nad optymalizacją wersji PS3 by wyglądała lepiej, czy też użyję ich do naprawiania bugów i poprawianiem grywalności? Czy zmienię projekt gry by używać tego, co PS3 robi najlepiej czy też, po prostu, puszczę grę w niższej rozdzielczości na tej platformie aby nadrobić sprzętowe ograniczenia? Twórcy borykający się z tym problemem często poświęcają swoją grę na ołtarzu sprzętowej wydajności.

Ten artykuł może być postrzegany jako “wyżywanie” się na Sony, ale tak naprawdę jest po prostu raportem z pola walki. Sony pozwoliło by ich sprzęt zaprojektowało sprzężenie interesów i pomysłów marketingowych zamiast skupić się na tym aby jego architektura służyła społeczności tworzącej gry na ich konsolę. Przegrają tę rundę i to przegrają ją bardzo wyraźnie właśnie z tego powodu, a ja mam nadzieję, że w następnym rozdaniu wyciągną z tego wnioski i stworzą bardziej zbalansowaną i używalną maszynę.

Źródło: portal polygamia.pl
Autor: Remigiusz Nowakowski

  • 0

#2 Montaro_81

Montaro_81

    Obserwator

  • 6 postów

Napisano 09 10 2008 - 18:54

Hmm ciekawe, sam przymierzam się do zakupu konsoli i artykuł na pewno będzie bardzo pomocny :D Dzięki wielkie, jeśli znajdziesz coś jeszcze (tego typu porównanie) to wrzucaj :D

  • 0

#3 cicinho

cicinho

    Początkujący

  • 24 postów

Napisano 09 10 2008 - 20:34

KOLEINA DAWKA INFO NA TEMAT MOCY KONSOLI X-360

POCZĄTEK SHADERÓW DX8
DirectX 8 uznawany jest za początek programowalnych shaderów. Zanim nadszedł, wszystkie programowane funkcje były funkcjami ustalonymi, co oznaczało, że twórcy gier mogli korzystać jedynie z efektów 3D, które obsługiwał dany układ graficzny. Na przykład, jeśli układ graficzny (nie nazywamy stało-funkcyjnych procesorów graficznych procesorami GPU, ponieważ nie są one programowalne) nie obsługuje dot3 product bump mapping, nie ma możliwości, aby producent wykorzystał w swojej grze taki efekt.
DirectX 9 usamodzielnił GPU. W chwili wprowadzenia, DirectX 9 zawierał Shader Model 2.0. Stanowił on milowy krok w porównaniu do Shader Model 1.4. Mimo tego, DirectX 9 ma jeszcze większy zapas. Wraz z nim 9.0c nadszedł Shader Model 3.0. Nowsza wersja oznaczała w zasadzie nieograniczone długości programów i możliwości, o których można było dotąd tylko marzyć w przypadku GPU. Jednakże nigdy nie widzieliśmy, aby ten potencjał był w pełni wykorzystany w grach, ze względu na ograniczenia w wydajności sprzętu. API wciąż zapewnia większe możliwości niż sprzęt jest w stanie obsłużyć.

A więc na DX 9 można osiągnąć te same efekty co na DX10....co nie znaczy że DX10 nie jest krokiem na przód...

Zanim API w ogóle wejdzie w interakcję z GPU karty graficznej podczas renderowania gry, aplikacja musi najpierw odwołać się do API, a ten do sterowników. Wszystkie te odwołania obsługiwane są przez CPU przy wykorzystaniu cennych zasobów co wywołuje potencjalne spowolnienie procesu. W chwili obecnej w większej części DirectX 9, API i sterownik pożerają do 40% czasu wykonywania.


Jak wiemy sterowniki w konsolach zapewne są, ale są niemal perfekcyjnie dopracowane więc nie ma tego przestoju, również nie wąskich gardeł w postaci AGP

Czytając do tego momentu drogi czytelniku możesz dojść do wniosku ,że właściwie DX10 to to samo co DX9....jednak to błędne myślenie....jednak zaraz postaram się pokazać iż M$ nie popełnił błędu projektując GPU dla Xboxa.

W skład tych procedur wchodzą ograniczenia dotyczące liczby obiektów, które mogą być wyświetlone równocześnie w jednej klatce na ekranie. W grze obiekt może stanowić cokolwiek. Może to być postać lub na przykład drzewo. Obecne ograniczenia przewidują do 500 obiektów w jednej klatce. Jeśli limit ten zostanie przekroczony będziemy mieli do czynienia z poważnym korkiem. Twórca musi zręcznie żonglować obiektami w grze, tak aby ich limit nie został przekroczony i nie zostały one zahamowane przez ograniczenia w oprogramowaniu i procesorze.
Niesie to ze sobą szerokie limity w doznaniach oferowanych przez grę. Weźmy pod lupę dla przykładu drzewa. W chwili obecnej większość drzew tworzy się poprzez kopiowanie przykładowego egzemplarza; możliwa jest też zmiana jego koloru i liczby liści. Tak tworzy się lasy. Ograniczeniem w tym momencie jest fakt, że nie da się wyświetlić tysięcy różnych drzew w jednej klatce w czasie rzeczywistym. DirectX 10 zniesie to ograniczenie.

A więc tutaj jest ten krok na przód, tylko żaden GPU nie wykorzystał jeszcze w pełni DX9.0c i 500 obiektów w jednej klatce.
Ograniczenia architektury ustalonego przetwarzania potokowego shadera

Kolejnym ograniczeniem związanym z DirectX 9 i obecnymi procesorami graficznymi, jest natura ustalonych ścieżek przetwarzania potokowego. W GPU przetwarzanie vertexów i pikseli jest oddzielone za pomocą odkreślonej liczby procesorów przeznaczonych dla obu. Dla przykładu, w obecnej technologii X1900 XTX jest 8 ustalonych jednostek vertex i 48 ustalonych jednostek przetwarzania pikseli. W przypadku tej architektury można popaść w tarapaty w scenach, które wymagają dużej mocy obliczeniowej dla vertexów, szczególnie jeżeli ma się do dyspozycji tylko 8 jednostek. DirectX 10 został stworzony pod kątem zunifikowanej architektury. Zunifikowana architektura API i GPU, zamiast stosować osobne jednostki, łączy jednostki tradycyjnego vertexu i pikseli w jedną fazę przetwarzania. Tak więc API obsługuje wszystkie jednostki za pomocą pojedynczej fazy GPU, zamiast kilku, jak działo się to do tej pory.



W tym miejscu ujawnia się przewaga Xenosa nad RSXem. W Xboksie GPU nigdy się nie nudzi, kiedy część shaderów w PS3 odpoczywa co pozwoli na szybsze generowanie tej samej sceny a więc wyższą wydajność, co juz mozemy zaobserwować w niektórych grach.

W miejsce shaderów vertex, pixel i geometry mamy teraz jedną jednostkę, która zajmuje się wszystkimi zadaniami. W dzisiejszych czasach często jesteśmy świadkami marnowania możliwości jednostek przetwarzających w GPU przez aplikacje, które korkują inne jednostki. Przed chwilą widzieliśmy jednostki Vertex Shader, które odpoczywały i czekały aż jednostki Pixel Shader uporają się ze swoim zadaniem lub na odwrót. Zunifikowana architektura powinna zaradzić takim sytuacjom i zredukować czas oczekiwania, a także marnowanie cyklów krzemu. Za sprawą zunifikowanej architektury GPU staje się czymś więcej. Staje się procesorem, który jest w stanie zrobić prawie wszystko co wymaga przetwarzania kodu. Oznacza to, że GPU może przejąć takie funkcje jak fizyka, sztuczna inteligencja, animacja, a także wiele innych procesów, które wzbogacają doznania gracza. DirectX 10 i zunifikowana architektura GPU pomagają karcie wideo zmienić się we wszystkopotrafiący układ. Takie są przynajmniej założenia. Jak to będzie wyglądało w rzeczywistości zależy od twórców gier.

A więc Xenos jest w stanie udźwignąć nawet fizykę niczym z Crysisa, tylko po co ma siętym martwić skoro ma do pomocy trzyrdzeniowy procesor.

Widać także jak cała technologia została połączona w konsoli XBOX 360. XBOX 360 wykorzystuje technologię GPU ATI i należy do zunifikowanej architektury. Dlatego też ATI ma już na rynku pierwszą generację zunifikowanej architektury GPU. Jasną sprawą jest, że XBOX 360 jest daleko przed desktopowymi GPU jeżeli chodzi o technologię. Oznacza to także, że przenoszenie gier pomiędzy XBOXem 360, a desktopowymi sprzętem GPU ATI powinno być łatwiejsze.

A więc porty z PC będą szybciej powstawać na X360 niż na PS3.



Zatem architektura GPU X360 jest niesamowicie przemyślana w stosunku do GPU PS3, wkońcu możliwości pixeli i vertexów na badzie DX9c staną w miejscu ,a GPU ze względu na brak ujednoliconej jednostki nie będzie w stanie obliczyć skomplikowanych scen. Myślenie ,że X360 już ma przestarzałe GPU w stosunku do PC jest błędne


Czy taka woda (Flight Simulator X - DX10) jest w stanie zaistnieć na X360 :

Myślę ,że po przeczytaniu tego tekstu nie masz wątpliwości że tak!


Źródło: benchmark.pl

Montaro_81 i reszta zainteresowanych, mogę udzielić kilku porad i wskazówek odnośnie konsoli, tak całkiem na luzie (nie tylko artykuły z portali). Pozdro.

  • 0




Użytkownicy przeglądający ten temat: 0

0 użytkowników, 0 gości, 0 anonimowych