Korporacja IBM chce wykorzystać molekuły DNA przy produkcji układów scalonych wytwarzanych w wymiarze technologicznym 22 nanometrów.
IBM wraz z California Institute of Technology poinformowali o wynikach swoich najnowszych badań. Zgodnie z podawanymi informacjami, możliwe będzie wykorzystanie kombinacji litografii z samoorganizacją - mowa tutaj o metodzie układania struktur DNA na powierzchni, która jest kompatybilna z obecnie dostępnymi półprzewodnikami.
IBM jest przekonany, że molekuł DNA można użyć w formie swoistego rusztowania dla składowania i gromadzenia milionów nanorurek węglowych. Pojawia się także możliwość produkcji układów w procesie produkcyjnym niższym niż 22 nm.
Na razie IBM nie dysponuje choćby działającym prototypem, a przynajmniej nie wyjawił żadnych informacji o istnieniu jakiegokolwiek układu tego typu.
Czy firmie IBM opłaci się przyglądanie się strukturze DNA? Czy zdobyta wiedza okaże się przydatna podczas budowy procesorów przyszłości? Trudno odpowiedzieć na te pytania. Swoje pomysły IBM przedstawił w czasopiśmie Nature Nanotechnology. Przedstawiciele IBM wierzą, że będą mogli budować mniejsze i szybsze procesory bez ponoszenia gigantycznych opłat związanych z kosztami produkcji.
Kiedy procesory przyszłości trafią na rynek? Menedżer ds. badań w IBM, Spike Narayan, twierdzi że najwcześniej za 10 lat.
Źródło: Reuters, Inf. własna
Komentarze
36P.S. Nie zmienia to jednak faktu, że jestem tu codziennym bywalcem :) .
Pozdrawiam.
dzisiejsze cpu beda raczej isc w strone wielordzeniowosci i oszczednosci energi, juz dzis nowe, jesli nie potrzebuja mocy, wylaczaja pozostale rdzenie albo daja im minimalne taktowanie.
od tylu lat cpu nie moga przejsc bariery 4ghz. kiedys wyszedl p4 3.6ghz. dzis dostajemy narazie 3.2ghz.
a szybsze sa dzieki wielordzeniowosci,optymalizacji microkodu i cache nowej generacji. oraz zra mniej pradu.
im wieksza konstrukcja tym trudniej synchronizowac dzialanie poszczególnych bloków - dlaczego np. karty graficzne nie osiagaja zawrotnych szybkości?
wlaśnie ze wzgledu na szybkośc poruszania sie elektronów w strukturze krzemowej.
P4 intela to byla konstrukcja o bardzo dlugim potoku wykonawczym + rozlożeniu dekodowania/pobierania/wykonywania na wiecej etapów, dzieki temu mozliwe bylo uzyskanie wyższych czestotliwości, ale kosztem wydajności.
Jak widac na tym doświadczeniu - to nie najlepsza droga.
prosty przyklad:
zbudowac sumator binarny(proste ALU) np. 32bitowy mozna na wiele sposobów, albo przez laczenie w szereg sumatorów jednobitowych w których jest mniej bramek i nie dokonuja one przelaczenia jednocześnie albo stworzenie jednego dużego sumatora w którym duża ilośc bramek bedzie zmieniala swój stan jednocześnie - jakie sa konsekwencje każdej z tych "dróg" - mniejszy pobór mocy tego pierwszego ale duze opóznienia w otrzymaniu wyniku, drugi zeżre wiecej ale bedzie pracowal szybciej.
Podobnie z procesorami, to rozmiar rdzenia wyznacza kres czestotliwości, nie nm, czy proces technologiczny - tylko pośredni czynnik.
Jesli chodzi o minimalny rozmiar - obecny proces 32nm to szerokośc ok 80 atomów krzemu w kanale.(tak pi razy oko)
PS same tu gbury :) świetnie :D