Dokumentacja Techniczna Karty Graficzne

[b]DOKUMENTACJA TECHNICZNA TEMAT : KARTY GRAFICZNE AUTOR : [/b] [b]SPIS TREŚCI :[/b] 1 GENEZA KART GRAFICZNYCH - 3 - 1.1 Początki bywają ciężkie… - 3 - 1.2 Początki grafiki 3D. - 4 - 1.3 Magistrala wyłącznie dla kart graficznych. - 5 - 1.4 Koniec z 3dfx. - 6 - 2 KARTA GRAFICZNA - 7 - 2.1 Podział kart graficznych - 7 - 3 BUDOWA KARTY GRAFICZNEJ - 8 - 4 TECHNOLOGIE I FUNKCJE KART - 10 - 5 TECHNOLOGIE ŁĄCZENIA KART GRAFICZNYCH - 11 - 6 BIBLIOGRAFIA - 12 -

[b]DOKUMENTACJA TECHNICZNA TEMAT : KARTY GRAFICZNE AUTOR : [/b]

[b]SPIS TREŚCI :[/b] 1 GENEZA KART GRAFICZNYCH - 3 - 1.1 Początki bywają ciężkie… - 3 - 1.2 Początki grafiki 3D. - 4 - 1.3 Magistrala wyłącznie dla kart graficznych. - 5 - 1.4 Koniec z 3dfx. - 6 - 2 KARTA GRAFICZNA - 7 - 2.1 Podział kart graficznych - 7 - 3 BUDOWA KARTY GRAFICZNEJ - 8 - 4 TECHNOLOGIE I FUNKCJE KART - 10 - 5 TECHNOLOGIE ŁĄCZENIA KART GRAFICZNYCH - 11 - 6 BIBLIOGRAFIA - 12 -

[b]1 GENEZA KART GRAFICZNYCH[/b]

1.1 Początki bywają ciężkie…

Historia kart graficznych jest bardzo długa i zawiła. Poniżej postaram się w skrócie przedstawić jej główne etapy - od samego początku, gdy całość jeszcze raczkowała, a głównym zadaniem układów było zwykłe wyświetlanie tekstu. Aż do dziś, gdy możliwości układów graficznych są bardzo potężne.

Wszystko rozpoczyna się 38 lat temu, w 1975 roku. Właśnie wtedy firma IBM wprowadziła na rynek pierwszy komputer osobisty, a mianowicie IBM 5100. Urządzenie wyświetlało na ekranie monitora 64 znaki w każdym z 16 wierszy, miało do dyspozycji 16 KB pamięci operacyjnej, a dane pobierało z taśmy. Cena, jaką przyszło zapłacić za to “cudo” sięgała 9000 dolarów. 6 lat później, a dokładnie 12 sierpnia 1981 roku, IBM zaprezentował nowy model. IBM 5150 posiadał adapter graficzny MDA - Monochrome Display Adapter, który komunikował się z komputerem za pomocą szyny ISA, wyświetlał 25 wierszy tekstu po 80 znaków każdy w rozdzielczości 720 x 350. Wyświetlał jedynie dwukolorowy obraz: biało-czarny, bursztynowo-czarny lub zielono-czarny. Umożliwiał jednak podkreślanie i rozjaśnianie tekstu, a dane odnośnie wyświetlanego obrazu zapisywał w 4 KB własnej pamięci. Krótko po premierze IBM wydał nowy układ graficzny CGA - Color Graphics Adapter. Udoskonalony model MDA posiadał dwa tryby pracy - graficzny i tekstowy. Tryb graficzny posiadał możliwość zmiany rozdzielczości i liczby kolorów. W 640 x 400 wyświetlał 2 kolory natomiast w 320 x 200 mieliśmy już do dyspozycji 4 kolory. Kolejną zmianą była ilość pamięci własnej, w CGA zwiększono ją aż czterokrotnie. Firma Hercules Computer Technology w roku 1982 zaprezentowała adapter graficzny HGC - Hercules Graphics Controller. Karta umożliwiała pracę w wysokiej rozdzielczości 720 x 348 przy dwóch kolorach. W trybie tekstowym oferowała dokładnie te same możliwości co MDA wyświetlając 80 znaków w 16 wierszach. Enhanced Graphics Adapter - EGA, który ukazał się w 1984 dość znacząco odbiegał możliwościami od swoich poprzedników. Miał 64 KB własnej pamięci z możliwością rozszerzenia do 256 KB. Wyświetlał obraz w 16 kolorach w rozdzielczości 640 x 350 lub 320 x 200. Tryb tekstowy nie różnił się niczym względem MDA i CGA. Kwiecień 1987 roku okazał się przełomowy. Na rynku pojawiła się nowa karta graficzna z prawdziwego zdarzenia. VGA - Video Graphics Array komunikował się z komputerem przy pomocy standardowej magistrali ISA. Układ udostępniał różne tryby graficzne, gracze mogli zadowolić się pracą w rozdzielczości 320 x 200 przy 256 kolorach z 18-bitowej palety barw, natomiast do użytkowania codziennego stosowano rozdzielczość 640 x 480 w 16 kolorach.W trybie tekstowym wyświetlała 80 x 25 znaków w 16 kolorach, zapewniała zgodność wstecz z poprzednim standardami (MDA, CGA, EGA). Z pewnością do jej atutów można było zaliczyć 256 KB pamięci lokalnej. Nowością był też analogowy sygnał wideo (RGB) który teoretycznie pozwalał wyświetlić nieskończoną ilość kolorów. Zaraz po premierze VGA, IBM wprowadził słabsze odmiany tej karty, a mianowicie MCGA (MultiColor Graphics Adapter). Różniły się one trybem w rozdzielczości 640 x 480, gdzie pracowały jako monochromatyczne. VGA okazało się być absolutnym standardem w swej dziedzinie, do którego dostosowywało się coraz to więcej producentów. Jak się jednak okazało, możliwości VGA były mocno ograniczone. Niezależni producenci zaczęli produkować nowe karty ze znacznie wyższymi rozdzielczościami nawet do 1600 x 1200. Karty te nazwano SVGA (Super VGA). Stosowanie własnych rozwiązań oczywiście miało swoje wady. Doprowadziło ono do wielu niekompatybilności. By powstrzymać szerzące się zamieszanie stworzono organizację VESA (Video Electronics Standards Association), której zadaniem było przywrócenie i zachowanie zgodności w wszystkich nowych kartach graficznych. W celu umożliwienia szybszego rozwoju i zapobiegnięciu ograniczeniom nałożonym przez 16-bitową magistrale ISA, organizacja VESA zmuszona była rozszerzyć ją do pełnych 32 bitów. VESA Local Bus (VLB), bo właśnie taką nazwę nosiła nowa magistrala, znacznie zwiększyła przepustowość względem poprzedniczki, co oczywiście pozytywnie przełożyło się na szybkość pracy. Jak się później okazało, Intel w dokładnie tym samym czasie pracował nad własną, niekompatybilną z ISA magistralą PCI (Peripheral Component Interconnect). Trzydziestodwubitowa magistrala PCI udostępniała przepustowość do 132 MB/s. Początkowo wprawdzie uważano ją za mało przyszłościową, jak się jednak później okazało VLB przegrał tę wojnę, a PCI używa się nawet w czasach dzisiejszych. Wraz z nową magistralą, producenci kart graficznych zaczęli wprowadzać swoje urządzenia z coraz to większymi możliwościami - początkowo 16-bitowa szyna została zastąpiona 32-bitową, następnie 64, aż później nawet 128-bitową. Zwiększeniu uległa również ilość posiadanej pamięci.

1.2 Początki grafiki 3D.

Matrox Millennium była pierwszą kartą graficzną, która posiadała funkcje grafiki trójwymiarowej. Układ MGA-2064W wytwarzał w pamięci karty Bufor Z. Jedną z innowacyjnych funkcji była możliwość cieniowania brył 3D. Zaledwie rok później na rynku pojawiła się firma Nvidia wraz z układem NV1. Poszerzył on wachlarz możliwości grafiki trójwymiarowej między innymi o sprzętowe nakładanie tekstur. Po raz pierwszy zastosowała go firma Diamond, w karcie Edge 3D. Niestety, pomimo sporych możliwości układu, karta nie została pozytywnie przyjęta na rynek ze względu na bardzo wysoką jak na tamte czasy cenę, która wynosiła około 2000 zł. W 1995 roku firma S3, zaprezentowała pierwsze tanie układy graficzne 2D/3D - ViRGE (Video and Rendering Graphics Engine). Akcelerator sprawdzał się znakomicie w grafice dwuwymiarowej, cechował się 16-bitową paletą kolorów (65536 barw) i bardzo dużymi możliwościami funkcji 3D, do której dodawał kilka istotnych rzeczy jak np: filtrowanie dwuliniowe, MIP-mapping, alpha blending, cieniowanie Gourauda, efekty atmosferyczne, itd. Niestety, jak się okazało, pomimo sprzętowej akceleracji pojawiły się problemy z zachowaniem płynności obrazu, często obrazowanie programowe było szybsze od sprzętowego. Kolejnym krokiem w dziedzinie kart graficznych było wprowadzenie układu Voodoo przez firmę 3Dfx. Oferowała ogromną wydajność, przewyższającą około trzykrotnie poprzednie karty ViRGE, dodatkowo została podniesiona rozdzielczość z 320 x 200 do 640 x 480 przy zachowaniu znacznie lepszej jakości obrazu. Voodoo był jedynie chipsetem, który wspomagał grafikę przestrzenną, do grafiki 2D i trybu tekstowego wymagana była karta zgodna z VGA.

1.3 Magistrala wyłącznie dla kart graficznych.

Szaleńczy wyścig wydajności kart graficznych bardzo szybko pokazał, że przepustowość, którą udostępniała magistrala PCI jest zdecydowanie za niska. By umożliwić dalszy rozwój Intel pod koniec 1996 roku podał specyfikację nowej magistrali AGP (Accelerated Graphics Port) przeznaczonej dla kart graficznych. Dzięki niej komputer umożliwiał komunikację z kartą graficzną z przepustowością dochodzącą nawet do 528 MB/s, ponadto umożliwił przechowywanie tekstur w pamięci komputera. W 1997 roku na rynek wkroczyła NVIDIA wraz z układem graficznym RIVA 128 (Real-time Interactive Video and Animation). Karta okazała się być niezwykle wydajna, w części testów biła konkurenta Voodoo osiągając blisko dwukrotnie wyższe wyniki. Była akceleratorem zarówno grafiki 2D jak i 3D, często można było napotkać wersje z wyjściem sygnału wizyjnego oraz wejściem wideo. Rok później firma 3Dfx odpowiedziała NVIDII wypuszczając na rynek układy Voodoo2. W porównaniu do starszego brata wydajność zwiększyła się blisko trzykrotnie, ponadto umożliwiały pracę w trybie SLI - dzięki czemu ich moc wzrosła jeszcze bardziej. Z pewnością największą wadą tego układu, była obsługa jedynie funkcji trójwymiarowych. Do pracy w 2D nadal wymagane było posiadanie karty zgodnej z VGA. Na rynku były dostępne dwie wersje układu z 8 i 12 MB pamięci. By powstrzymać konkurencję NVIDIA zapowiedziała swój własny układ RIVA TNT (TwiN Texel). Według pogłosek karta miała być około trzykrotnie szybsza od Voodoo2 pracującej w trybie SLI. Oczywiście okazało się, że prawda jest znacznie mniej kolorowa. Realna wydajność Rivy TNT była na poziomie jednego układu Voodoo2. W tym samym roku firma S3 wpuściła układ Savage3D, którego charakterystyczną cechą była kompresja tekstur S3TC - (S3 Texture Compression). Niestety problemy produkcyjne sprawiły, że karta była mało popularna, co skutkowało niezbyt pozytywnym przyjęciem przez rynek. W 1999 roku NVIDIA i 3dfx wydały kolejne konkurujące ze sobą układy: RIVA TNT2 i Voodoo3. Voodoo okazał się być trochę szybszy, jednak 16-bitowa paleta kolorów sprawiła, że układy konkurencyjne cieszyły się większą popularnością. Jeszcze w maju tego samego roku NVIDIA wydała odświeżoną wersję karty TNT2 z dopiskiem Ultra. Układ cechował się wydajnością na poziomie Voodoo3, przy czym posiadał znacznie większe możliwości, dzięki czemu firma zyskała kolejnych zwolenników. Późnym latem 1999 roku poznaliśmy możliwości nowego układu NVIDII - GeForce 256. Skrót “Ge” pochodzi od “Geometry”, “Force” oznacza moc, natomiast dopisek “256” nawiązuje do 256-bitowego procesora. Układ posiadał procesor geometrii odpowiedzialny za obliczenia geometryczne, potocznie zwano go jednostką transformacji i oświetlenia (T&L Engine). Transformacje i oświetlenia wykonywane dotychczas przez procesor zostały przejęte przez kartę graficzną, co czyniło ją niemal całkowicie niezależną. Stąd też wraz z GeForcem 256 pojawił się nowy termin, GPU - Graphics Processing Unit. Niemal równo z premierą układu NVIDII, 3dfx zaprezentował Voodoo4 i Voodoo5. Bazujące na nowej architekturze karty VSA-100 (Voodoo Scalable Architecture) miały pełną 32-bitową paletę kolorów oraz bufor T, który pozwalał na uzyskanie rozmaitych efektów, jak na przykład: miękkie cienie, odbicia, rozmywanie obiektów podczas poruszania oraz pełnoekranowe wygładzanie krawędzi (Full-Screen Anti-Aliasing - FSAA). Jedyne czego mu brakowało to jednostka T&L. Jeszcze w tym samym roku S3 opracowała układ Savage 2000. Pomimo dwukrotnie mniejszej liczby tranzystorów od GeForce 256 oferował zbliżone do niego możliwości. Był pierwszym układem tej firmy wyposażonym w jednostkę T&L, jednak miał z nią ogromne problemy, początkowo nawet nie dało się jej włączyć. Z czasem zostały wydane sterowniki, które umożliwiały uruchomienie T&L, jednak kończyło się to wyświetlaniem błędów w obrazie. Prawdopodobnie odpowiadała za to nie do końca dopracowana architektura układu.

W pierwszym kwartale 2000 roku firma ATI wprowadziła na rynek kartę graficzną Radeon 256 z układem o nazwie kodowej R100. Z czasem, aby nie mylić ich produktu z GeForcem 256, dopisek “256” został usunięty. Był to pierwszy chip ATI, który posiadał sprzętowe wsparcie dla T&L. Wraz z R100 zadebiutował nowy, dziś już zapomniany termin VPU (Visual Processing Unit). Na rynku początkowo dostępne były dwie wersje tej karty z 32 MB i 64 MB DDR. Latem dołączyła do ich grona tańsza wersja z pamięciami SDR. Aby utrzymać silną pozycję na rynku, NVIDIA momentalnie dała odpowiedź w postaci topowego układu GeForce2 GTS oraz wersji dla konsumentów mniej wymagających GeForce2 MX. Karty zostały wyposażone w 32 i 64 MB pamięci DDR. Kilka miesięcy później oferta NVIDII została poszerzona o GeForce2 Ultra - wydajność względem poprzednika (GTS) wzrosła o około 20-30%.

1.4 Koniec z 3dfx.

Rok 2000 okazał się dla firmy 3dfx tragiczny - miała ona ogromne problemy finansowe. Jedyną deską ratunku, nad którą pracowali od 1998 roku był świetnie zapowiadający się układ Rampage. Chip posiadał cztery potoki teksturujące, z których każdy miał w zanadrzu trzy jednostki mapujące tekstury. Dodatkowo cechował się taktowaniem na poziomie 200 Mhz. Układ nie zdążył ujrzeć światła dziennego. 3dfx w grudniu 2000 roku została przejęta przez firmę NVIDIA.

[b]2 KARTA GRAFICZNA[/b]

Karta graficzna to karta rozszerzeń odpowiedzialna za generowanie sygnału graficznego dla ekranu monitora. Podstawowym zadaniem karty graficznej jest odbiór i przetwarzanie otrzymywanych od komputera informacji o obrazie oraz odpowiednie wyświetlanie tegoż to obrazu za pośrednictwem monitora. Podzespół ten jest też nazywany kartą VGA , czyli Video Graphics Array. Każdy obiekt składa się z siatki linii , tak zwanje siatki wielokątów. Punkty siatki GPU otrzymuje z procesora. Karta graficzna musi najpierw obliczyć nowe pozycje punktów przecięcia siatki wielokątów, tym procesem zarządza Vertex Shader. Następnie Pixel Shader wypełnia kolorami powierzchnię siatki wielokątów. Uwzględnia przy tym oświetlenie oraz powstające odbicia i cienie. Tak zwany Bump Mapping nadaje obietkom subtelne struktury, na przykład załamania stroju. Podczas tego procesu współpracują ze sobą Vertex oraz Pixel Shader. Następnie tekstury, czyli gotowe wzory pokrywające obiekty są nakładnae na przedmioty i postacie. Tym samym obraz z określonej sceny jest gotowy.

2.1 Podział kart graficznych

Ze względu na zintegrowanie z płytą główną :

a) Karty graficzne pracujące jako oddzielne układy – można je wymieniać , są dużo szybsze od kart zintegrowanych. Współczesne karty graficzne do komunikacji z komputerem wykorzystują interfejs AGP, PCI lub PCIe.

b) Karty graficzne zintegrowane z płytą główną, czyli z mostkiem północnym – z powodu małych rozmiarów są one dużo wolniejsze od kart nie zintegrowanych. Jest to mniej popularny typ kart graficznych. Wykorzystywany głównie w komputerach o zastosowaniu biurowym .

Ze względu na poziom wydajności :

a) Bufory ramki - są to podstawowe sterowniki zawierające pamięć RAM i układ wyświetlający dane przygotowane przez procesor i przechowywane w pamięci obrazu. W celu wygenerowania obrazu np. fraktala, procesor musi wyliczyć kolory wszystkich punktów rysunku i zapisać odpowiednie bajty w pamięci obrazu. Do tej grupy zaliczamy karty graficzne poczynając od kart MDA i CGA przez EGA kończąc na VGA i SVGA.

b) Akceleratory graficzne-są to karty z wyposażone w dodatkowy procesor, który odciąża procesor główny od obliczeń dotyczących przetwarzania obrazu oraz z zainstalowanym specjalnym układem, wykonującym kilkanaście podstawowych funkcji graficznych np. kreślenie linii, rysowanie okręgów i elips a także przesyłanie bloków pamięci. Karty te są znacznie szybsze niż bufory ramki, lecz wymagają oprogramowania stworzonego specjalnie dla nich.

c) Karty koprocesorowe -ten rodzaj kart należy do najszybszych, stosowane są tam, gdzie potrzebna jest bardzo duża moc obliczeniowa. W kartach tych instalowany jest specjalny koprocesor odciążający procesor główny od przetwarzania obrazu. Koprocesor ten posiada własny zestaw instrukcji i jest w pełni programowalny. Kart tych używa się w większości do celów profesjonalnych np. w studiach graficznych.

[b]3 BUDOWA KARTY GRAFICZNEJ [/b]

Każda współczesna karta graficzna posiada:

a) Procesor graficzny, GPU (Graphics Processing Unit), koprocesor graficzny – jest główną jednostką obliczeniową kart graficznych odpowiedzialną za generowanie obrazu.

b) Pamięć obrazu (VideoRAM), bufor ramki (framebuffer) – Jest to odmiana kości pamięci RAM stosowana w kartach graficznych, przeznaczona wyłącznie do przetwarzania informacji o obrazie, teksturach oraz danych o głębi (z pamięci jest w tym celu wydzielany tzw. Bufor Z).

c) Pamięć ROM – pamięć przechowująca dane (np. dane generatora znaków) lub firmware karty graficznej, obecnie realizowana jako pamięć flash EEPROM.

d) RAMDAC (Random Access Memory Digital to Analog Converter)- jest to układ scalony na karcie graficznej, przeznaczony do zmiany sygnału cyfrowego na analogowy. RADMAC pobiera dane o obrazie wygenerowanym przez procesor karty graficznej. Dane te są w postaci zbioru różnokolorowych punktów. RAMDAC zamienia je na sygnały analogowe i wysyła do monitora. Konwerter zawiera 4 funkcjonalne bloki: pamięć SRAM, służącą do przechowywania mapy kolorów, oraz 3 przetworniki cyfrowo-analogowe (C/A), po jednym dla każdego koloru podstawowego modelu RGB . Częstotliwość pracy układu RAMDAC zależy od ustawionej rozdzielczości i częstotliwości odświeżania. W przypadku kart wyłącznie z wyjściem cyfrowym RAMDAC nie ma zastosowania. e) Interfejs do systemu komputerowego – umożliwia wymianę danych i sterowanie kartą graficzną, najczęściej jest to PCI, AGP, PCIe

f) Interfejs na slocie karty graficznej – zazwyczaj P&D, DFP, VGA, DVI, HDMI, DisplayPort.

g) VRAM jest to pamięć podlegająca jednoczesnemu zapisywaniu (przez kontroler graficzny) i odczytywaniu (przez przetwornik RAMDAC). Gdyby obydwie te czynności musiały by być wykonywane w jednym bloku pamięci przetwornik RAMDAC musiał by czekać na ukończenie zapisywania. Podobnie z było by z odczytem, kontroler karty graficznej musiał by czekać na odczytanie przez przetwornik wszystkich danych. Aby te dwa procesy nie kolidowały ze sobą wprowadzono podwójne buforowanie (Dual Buffering). Kontroler graficzny ma do dyspozycji dwa bloki pamięciowe. Jeśli jeden z nich wypełniany jest świeżą treścią (Back Buffer), drugi można oddać do dyspozycji RAMDAC, by przekazał kompletną zawartość na ekran (Front Buffer). W ten sposób zawsze jakiś bufor jest używany, a jakiś jest gotów do zapisu i wspomniane dwa procesy nie zakłócają się wzajemnie. Podwójne buforowanie nie zawsze się jednak sprawdza i mimo dwóch buforów i tak występują opóźnienia. Dlatego wprowadzono buforowanie potrójne i poczwórne (które wyeliminowało wady potrójnego).

Schemat blokowy, wybranej karty graficznej :

[b]4 TECHNOLOGIE I FUNKCJE KART[/b]

Od chwili pierwszych kart i dedykowanej magistrali , nastąpił rozwój technologi graficznych:

a) Transform and Lighting T&L – technologia przetwarzania i oświetlania, to seria aplikacji przyspieszająca obliczanie animacji . Zwiększając tym samym płynność renderowania grafiki , bez nadmiernego obciązania procesora. Technologię T&L obecnie zastępuje cieniowanie (Shader).

b) Shader – to cieniowanie, program opisujący właściwości pikseli oraz wierzchołków. Cieniowanie pozwala na skomplikowane modelowanie oświetlenia i tekstur . Jest jednak wymagające obliczeniowo i dlatego dopiero od kilku lat sprzętowa obsługa cieniowania jest obecna w kartach graficznych dla komputerów domowych.

Biblioteki graficzne Direct3D i OpenGL używają trzech typów cieniowania: • Vertex Shader (Cieniowanie wierzchołkowe) • Geometry Shader (Cieniowanie geometryczne) • Pixel Shader lub Fragment Shader (Cieniowanie pikseli)

Obecnie, z uwagi na wymagania bibliotek DirectX w wersji 10, zniknął podział panujący dotychczas na Pixel i Vertex Shader. Obliczenia, jakimi te odrębne jednostki się zajmowały, są teraz wykonywane przez jednolite jednostki obliczeniowe, które są dynamicznie przydzielane do takiego typu obliczeń, jaki jest aktualnie potrzebny. Rozwiązanie takie zostało nazwane przez ATI Stream Processors a przez Nvidię Unified Shaders.

c) HDR rendering – czyli rendering z użyciem szerokiego zakresu dynamicznego, to sposób generowania sceny trójwymiarowej przy użyciu większego niż normalnie zakresu jasności. Efektem tej technologii jest scena z realistycznym oświetleniem.

d) Antyaliasing – to technologia wygładzanie krawędzi (łuków, okręgów oraz innych krzywych) poprzez nałożenie dodatkowych pikseli o mniejszym nasyceniu i jasności niż piksele obiektu oraz poprzez niewielką zmianę położenia pikseli w pobliżu krawędzi. Ze względu na coraz większe rozdzielczości monitorów (a tym samym mniejsze rozmiary plamek) antyaliasing nie jest już tak potrzebny. Szacuje się że za jakiś czas nie będzie już potrzebny.

e) Efekty cząsteczkowe – to symulacje zjawisk (takich dym, pył, deszcz, ogień) budowanych z małych wirtualnych cząsteczek traktowanych jak obiekty punktowe które podlegają prawom fizyki oraz interakcji z otoczeniem.

f) Mapowanie wypukłości – to sposób teksturowanie obiektów symulujący wypukłości powierzchni, bez ingerencji w geometrię obiektu trójwymiarowego. Efektem może być gładka kula wyglądająca jak by była nierówna.

g) Filtrowanie anizotropowe – to technika poprawy jakości tekstur w trójwymiarowej grafice komputerowej. Stosowana zwłaszcza dla obiektów obserwowanych pod dużymi kątami i w dużych odległościach od kamery. Technika ta jest udoskonaleniem filtrowania trójliniowego i polega na uwzględnieniu w filtrowaniu tekstury kierunku obserwacji.

[b]5 TECHNOLOGIE ŁĄCZENIA KART GRAFICZNYCH [/b]

Łączenie kart graficzny polega na zwiększeniu wydajności układu graficznego po przez podłączenie kilku kart mostkiem na płycie głównej. Podstawowym wymaganiem jest posiadanie przez karty tego samego typu ( Nvidia lub ATI ) wejścia na mostek i posiadanie odpowiedniej płyty głównej.

Dwie najbardziej znane technologie łączenia kart to :

a) SLI (Scalable Link Interface), interfejs skalowanego łącza – technologia pozwalająca na wspólną pracę dwóch (lub więcej) kart graficznych w celu przyspieszenia renderowania obrazu. Obliczeniami nie zajmuje się tylko jeden układ. Technologie tą obecnie wspiera i modernizuje firma Nvidia . Działanie tej technologi polega na włożeniu kart graficznych w złącza PCI-Express 16x lub 8x . Obie generują obraz. Obraz dzielony jest na dwie części, górną i dolną. Za rendering górnej połowy odpowiada pierwsza karta, a dolnej druga karta. Obie części obrazu nie są jednak sobie równe. Na początku obraz dzielony jest na dwie połowy. Następnie przeprowadzana jest analiza każdej z nich. Jeśli górna wymaga mniej obliczeń niż dolna, linia podziału przesuwana jest ku dołowi, analogicznie jeżeli dolna połowa wymaga mniej obliczeń linia podziału przesuwa się w górę tak, by wyrównać poziom obliczeń. Wadą tej technologi jest to że wydajność kart zależy od najsłabszej z nich . Pamięć wewnętrzan karty nie ulega zsumowani a wydajność po dołączeniu drugiej karty wzrasta średnio o 60-70 %.

b) CrossFire, CrossFireX to odpowiednich technologi firmy Nvidia. Opracowany przez ATI na potrzeby wzrostu wydajności. Technologia CrossFire dzieli obraz idący do pierwszej karty graficznej (master) w ten sposób, że druga karta (slave) wykonuję połowę obliczeń. Druga karta jest układem wspomagającym. CrossfireX jest kontynuacją technologii współpracującą z nowszymi kartami graficznymi i chipsetami. Obecnie większość kart VGA posiada układ CrossFire. Wadą tej technologi jest czas opóźnienia w wyświetlanych klatka na ekranie wyświetlacza . Wynika to z faktu występowania różnic w przydzielonym zadaniu dla danej karty graficznej w układzie CrossFire.

Najważniejszą obecnie wadą tych technologi jest cena i brak wsparcia wielu firm. To sprawia że owe technologie nie jesteśmy w stanie zastosować w wielu zadaniach informatycznych. Wynika to z tego że skalowanie łączenia jak i system układów wspomagających wymaga w obsługiwanym programie odpowiednich bibliotek.

Pierwsze wzmianki na temat łączenia kart graficznych w celu zwiększenia ich wydajności pojawiły się już za czasów kart Voodoo. Dwie karty Voodoo 2 połączone mostkiem pracowały w trybie przeplatania linii obrazu. Pierwsza karta generowała obraz składający się tylko z linii nieparzystych, druga zaś z linii parzystych. Tak wygenerowane półobrazy łączone były w jedną klatkę. Metoda została nazwana skrótem “SLI” – od “Scan-Line Interleave” – przeplot linii skanujących. W grudniu 2000 r. NVIDIA Corporation wykupiła 3dfx włączając patenty oraz własność intelektualną.

[b]6 BIBLIOGRAFIA [/b]

 Artykuł „Historia kart graficznych 1975-2010 ” autorstwa Pclab.pl  „Technologia informacyjna” . Witold Wrotek. Wydawnictwo Helion.  „Karty graficzne VGA i SVGA. Tomasz Kopacz. Wydawnictwo Mikom.  „Procedury graficzne dla kart”. Jarosław Skolimowski. Wydawnictwo Helion.