Az információtechnológiával kapcsolatos fejlesztések egyre kisebb része foglalkozik a klasszikus számítástechnikával, a hangsúly a mesterséges intelligenciára és a tárgyak internetére helyeződik át.
Ma nem csodálkozunk azon, hogy számítógépek vesznek körül bennünket, okostelefonunkkal pedig bárhonnan hozzáférünk a világhálóhoz. Ennek az ember, gép és információ közötti szimbiózisnak az egyik kezdőpontja az AOL 1999-es, Boris Beckerrel készült reklámja lehet, amelynek szlogenje az „I am in it”, azaz laza fordításban „Én benne vagyok” volt. Most, húsz évvel később ez a bennfentesség egész más jelentést kap, hiszen az internetes kapcsolat megléte magától értetődő, az újdonságot a mesterséges intelligencia és a tárgyak internete, az IoT jelenti. Ezek pár éve még annyira távolinak tűntek, mint a számítási felhő, de legalább annyira képesek lesznek megváltoztatni életünket. Az IoT alapját centiméteres nagyságrendű, hálózatba kötött eszközök adják, amelyek egy vagy több érzékelőt, alapszintű számítógépes kapacitást és valamilyen vezeték nélküli kommunikációs adaptert tartalmaznak. Ezek az apró eszközök ott lesznek mindenhol, a ruhákban, az autókban, az utcai lámpákban és az úttestben is. Feladatuk az lesz, hogy adatokat gyűjtsenek, és ezt az adattengert már nem a ma ismert algoritmusok, hanem öntanuló rendszerek fogják elemezni. Ahhoz, hogy ez a szép új világ eljöhessen, azonban arra van szükség, hogy a számítógépek alapvető egysége, a tranzisztor tovább csökkenthesse méretét, így biztosítható ugyanis a hatékonyság és a sebesség növekedése. Tizenöt évvel ezelőtt a tranzisztorok mérete a 130 nm-es tartományban mozgott, így akkorák voltak, mint egy influenzavírus. Ma a kutatók már azon dolgoznak, hogy miként tudják elérni az atomok méretét (0,3 nm).
Minél kisebb, annál jobb
A mai számítógépek működésének alapvető elemei a tranzisztorok, amelyek itt apró kapcsolóként működnek, ezek ki- és bekapcsolt állapota adja a számítástechnikában használt bináris számrendszer 0-it és 1-eit. Minél több és minél gyorsabban kapcsoló tranzisztort tudunk egy területre bezsúfolni, annál gyorsabb és hatékonyabb lesz számítógépünk. Az elmúlt 50 évben a ma már legendásnak mondható Moore-törvény uralkodott, amely kimondja, hogy az adott területen létrehozható tranzisztorok száma 18 havonta megduplázódik. Egy ilyen duplázás nagyjából 40 százalékos növekedést jelent a hatékonyságban. Az elektronikai ipar legnagyobb kihívása napjainkban éppen az, hogy a Moore-törvény betarthatóságát biztosítsák. A legnagyobb gond az, hogy a chipek gyártása során eddig használt eljárások kezdik elérni határaikat. Egy új eljárásgeneráció kifejlesztése dollármilliárdokat emészt fel, nem csoda, ha az egykorvolt tucatnyi chipgyártóból csak négyen maradtak: az Intel, a Samsung, a TSMC (Taiwan Semiconductor Manu facturing Company) és az AMD egykori gyártórészlegéből kinőtt Global Foundries. A chipgyártás során használt eljárásgenerációkat, node-okat általában egy méretre utaló számmal jelölik, amely korábban a csíkszélességre utalt, ma azonban egyre kevésbé áll vele kapcsolatban. A Samsung például a Galaxy S8 rendszerchipjét 10 nm-es technológiával gyártja, de az SoC-ben található tranzisztorok egyetlen dimenziója sem 10 nm-es, és amit a Samsung 10 nm-nek hív, az kicsit mást jelent az Intelnél és megint mást a TSMC-nél. Ez köszönhető többek között a FinFET nevű megoldásnak, amelyet az Intel dobott elsőként piacra 2012-ben. Egyszerűen megfogalmazva a FinFET a korábbi, síkban felépülő (planáris) tranzisztorokhoz képest térben épül fel, és egymás mellé építve őket a kapukat tartalmazó vezetők és a forrást, illetve a nyelőt összekötő „finek” pedig egymást négyzethálósan keresztezik. A fin névre hallgató struktúrán keresztül folyik az áram, ezt kapcsolja ki és be a kapu. Az, hogy a felépülő struktúra melyik méretéről nevezik el a gyártástechnológiát, cége válogatja: az úgynevezett CPP (Contacted Poly Pitch) például a kapuk közötti távolságot, az MMP (minimum metal pitch) pedig a tranzisztor feletti, az áramellátását biztosító rétegben található érintkezők közötti minimális távolságot jelöli.
Moore törvényének jövője
A FinFET tranzisztorok előnyös tulajdonságaikat a nevüket adó vezetéknek, a finnek köszönhetik, amelyet a kapu három oldalról vesz körbe, így hatékonyan képes szabályozni az áthaladó áramot. Ez a szabályozás a méretek csökkenésével együtt válik egyre nehezebbé, az eredmény pedig növekvő szivárgási áram, hőtermelés és fogyasztás. A félvezetőgyártásban elfogadott nézet, hogy a FinFET felépítés 7 nm-ig működőképes – tekintettel arra, hogy a TSMC a 2018-ban megjelenő iPhone számára már szeretne 7 nm-re átállni, egy ideje gondolkoznak azon, hogy miként biztosíthatják tovább Moore törvényének működését. Jelenleg két technológia tűnik ígéretesnek. Az első „csak” a ma használatos litográfia továbbfejlesztése. A mai immerziós litográf eljárásban 193 nm-es lézert használnak, és az anyagot többször egymás után is megvilágítják különböző maszkokon keresztül azért, hogy végül a fény hullámhosszánál kisebb struktúrák jöhessenek létre. A jövőben egy új, EUV (Extrém Ultraviola) lézerrel a megvilágításra használt fény hullámhossza 13,5 nm-re csökkenhet, amelyhez azonban vákumra és speciális tükrökre is szükség van. Egy holland cég, az ASML már gyárt EUV lézereket, amelyekből a világon már 14 példány működik, és véleményük szerint 2019-re már sorozatgyártásban is készülhetnek ezek az eszközök.
A következő lépcsőfokot a 2020-ban előkerülő 5 nm-es tartomány jelenti, ahol előkerülhetnek az úgynevezett nanovezetékek. Itt a kapu már nem három, hanem négy irányból öleli körbe a forrás-nyelő közötti vezetéket, gyakorlatilag teljesen beburkolva azt, a FinFET-nél is jobb hatásfokot biztosítva. Tavaly nyáron a belgiumi Liege-ben található InterUniversity Microelectronics Center már bemutatott egy prototípusként előállított nanovezetéket, 8 nm-es átmérővel. Iparági vélemények szerint ezek a nanovezetékek 3 nm-ig használhatóak, ezt követően azonban végleg el kell búcsúznunk a szilíciumtól.
Gyors adatfeldolgozás a jövőben
A tranzisztorok méretének csökkenése a PC-k felépítését is megváltoztathatja. Az AMD nemrégiben bemutatta, hogy miként képzeli el a jövő nagygépeit: ez az EHP, az Exascale Heterogeneous Processor, amely egyetlen chipben integrálja a CPU-t, a GPU-t és a memóriát. Bár a CPU-GPU összeillesztése nem újdonság, ezekben az integrált grafikus processzorok teljesítménye meglehetősen alacsony. Az EHP esetében a GPU és a CPU teljesen különálló egységek, kis méretük miatt mégis egy tokba kerülhetnek. A tranzisztorok mérete azt is biztosítja, hogy a grafikus processzor kellően nagy teljesítményű legyen, a két egységet pedig az interposernek nevezett egység köti össze. Ez az interposer egy vezetékek ezreit tartalmazó szilíciumlapka, amely nagyon gyors adatátvitelt tesz lehetővé. Az EHP esetében a memória a GPU felett található egy High Bandwidth Memory (HBM) egység képében. A HBM előnye a hagyományos RAMmal szemben az, hogy a memóriacellák nem síkban, hanem egymás fölött, rétegekben helyezkednek el, ami nemcsak a memória/terület arányt, de a sebességet is növeli. Ez a kialakítás ma azért nem lehetséges, mert a CPU-GPU hőtermelése akkora, hogy azt a HBM-en keresztül nem lehetne elszállítani, a chipek egyszerűen elégnének, ezért a kisebb, energiahatékonyabb tranzisztorokra mindenképpen szükség van a koncepcióhoz.
A mesterséges intelligencia kora
Bár az EHP PC-be is beépíthető, valójában nem erre született, és a fejlesztések nagy része már nem is a PC-k, szerverek vagy az okostelefonok miatt készül. Két olyan új terület van, amelyre a mérnökök túlnyomó része koncentrál: a mesterséges intelligencia és a tárgyak internete, az IoT, amely apró szenzorokat és önmagukban viszonylag „buta” eszközöket köt össze.
Nem feltétlenül szerencsés elnevezés a mesterséges intelligencia, mivel annak, amivel jelenleg ezen a területen foglalkoznak, viszonylag kevés köze van a szó hagyományos értelmében vett intelligenciához. Egy olyan gép, ami az emberhez hasonlóan mozog, alkalmazkodik és találja fel magát egy komplex környezetben, más szóval az általános mesterséges intelligencia, még a távoli jövő zenéje. Ami közelebb van, az egy neurális hálózat, ami egy tanulási folyamat után képes egy adott feladatot megbízhatóan és önállóan végrehajtani. Egyes neurális hálózatokon alapuló mesterséges intelligenciák folyamatosan tanulnak hibáikból, így egyre jobbak és jobbak lesznek. Egy neurális hálózat rengeteg párhuzamosan kötött elemből áll, amelyek egyenként csak alapvető, egyszerű feladatok végrehajtására képesek. Erre az MI-vel dolgozó kutatók általában grafikus processzorokat használnak: az NVIDIA GeForce GTX 1080 például 2560 matematikai egységet (ALU-t) tartalmaz. Ez persze csak egyfajta kényszermegoldás, hiszen a GPU-ba épített kapacitás nagy része ilyenkor kihasználatlan, mivel az egyszerűbb neurális hálózatokhoz nincs szükség ilyen méretű parallelizációra, viszont rengeteg adatot kell mozgatnia. Itt jönne jól a HBM, amely gyorsabb lenne, mint a GTX 1080-ra épített GDDR5X. Az Intel mindenesetre Spring Crest néven már készít egy kifejezetten a neurális hálózatokhoz fejlesztett processzort, amely jövőre, 2019-ben jelenhet meg a piacon. A Spring Crestben ugyanúgy több különálló egység van, ezeket az Intel feldolgozó klasztereknek nevezi. Minden klaszterben több matematikai egység van, illetve HBM van összefogva.
Mesterséges intelligencia mindenkinek
Ne gondoljuk, hogy a mesterséges intelligencia számára fejlesztett hardver a jövő zenéje: már a mai eszközökben is találunk erre a célra dedikált komponenseket. Ilyen például a Qualcomm új rendszerchipje, az idei csúcstelefonokba kerülő Snapdragon 845 is, amelyben a CPU és a GPU mellett pár dedikált processzor is helyet kapott. A hardveres optimalizáción túl a mesterséges intelligenciával kapcsolatos kutatások eredményei is nagymértékben segítik az MI terjedését, annál is inkább, mert rengeteg feladatban láthatjuk hasznát. A Google például tavaly november óta használ egy RASIR nevű képjavító eljárást, amelynek feladata a kis méretű, alacsony felbontású képek minőségének javítása. Ennek kifejlesztésében szerepe volt a mesterséges intelligenciának is, a végeredmény pedig nagyobb hatásfokú bármelyik, korábban emberek által létrehozott megoldásnál. Hasonlóan kidolgozták már a videotömörítés hatásfokának javítását is, amely a VP10-zel került a piacra.
Számítógépek a közösségben
Tudnak-e a számítógépek hazudni? Az úgynevezett GAN, Generative Adversarial Network esetében igen, sőt, éppen ez a lényeg: itt két mesterséges intelligencia dolgozik együtt. Az egyik egy képfelismerésre optimalizált modell, míg a másik képeket „mutat” neki, közte olyanokat is, amelyek nem a valóságot ábrázolják. Az első MI feladata, hogy meghatározza, melyek a hamis képek, és mindkét neurális hálózat visszajelzést kap arról, hogy mennyire sikeres a feladat megoldása. Ahogy múlik az idő, úgy válik az első hálózat egyre jobbá a hamisított képek felismerésében, de vele párhuzamosan úgy lesz egyre ügyesebb a második is a hamisításban. Mindez azért lényeges, mert a tanulás folyamata így sokkal gyorsabb, mintha kizárólag fotókat mutogatnánk az első hálózatnak, szép sorban egymás után. A GAN-on kívül a visszacsatolásos, megerősítéses tanulási módszerek (Reinforcement Learning) is fontos szerepet kapnak a gépi intelligencia kutatásában. A kérdés itt az, hogy mennyire képes egy mesterséges intelligencia tapasztalati úton felfedezni környezetének szabályrendszerét. A számítógépes játékok kiváló terepet nyújtanak ehhez: viszonylag egyszerű szabályrendszert használnak, de elegendő visszacsatolást adnak a tanuláshoz. A Google DeepMind nevű, mesterséges intelligenciával foglalkozó részlege egy lépéssel tovább is ment, és már azzal foglalkoznak, hogy több MI-ből álló csapatokat engednek játékba, ezeknek pedig azt kell eldönteni, hogy mi célravezetőbb: együtt vagy külön dolgozni. Az eredmény az, hogy az együttműködés nagyobb energiabefektetést igényel, de hatékonyabb – ha van elég rendelkezésre álló erőforrás, az MI ezt választja.
Akkumulátorok és kvantumpontok
A méretcsökkentés nemcsak a tranzisztorok területén fontos, a tárgyak internetéhez az akkumulátoroknak is változniuk kell. Bár a közeljövőben arra nem lehet számítani, hogy a Li-Ion technológiát leváltanák, a fejlesztések nem álltak le, a Panasonic például a tavalyi CES-en mutatta be, hogy ők hol is tartanak ezen a területen. Az általuk készített energiatároló egység mindössze 0,45 mm vastag, ráadásul hajlékony is, így ideális lehet viselhető eszközök készítésére. Ahhoz, hogy ezt elérjék, a Panasonic átalakította az akkumulátorok belső szerkezetét, az elektródák felépítésén is változtattak, és ezeket rétegesen helyezték el. Érdekesség, hogy a 0,45 mm-es vastagság miatt ez az akkumulátor nem tölthető vezetékeken keresztül, a csatlakozóknak ugyanis nem maradt hely, a töltést vezeték nélküli eljárással oldják meg. A japán cég azt tervezi, hogy jövőre már sorozatgyártásba is kerül ez az apró szerkezet. Fontos fejlesztési irány a szilárd elektrolitoké. A mai akkumulátorokban egy szerves alapú folyadék található, amely magas hőmérséklet hatására párologni, forrni kezd, ez pedig az akku szétrepedéséhez és végső soron robbanásához vezet. Szilárd elektrolittel megakadályozható lenne ez a jelenség.
Tiszta színek a tévén
Bizonyos szempontból a szórakoztatóelektronikai ipar is az egyre kisebb struktúrák felé tart: a színvisszaadást kvantumpontok segítségével javító tévék például már évek óta velünk vannak. A Samsung jelenleg QLED rövidítéssel jelzi ezeket a modelleket, de a kvantumpontok tudása még messze nincs kihasználva. Ezek a pontok valójában nagyon apró fémes szerkezetek, melyek mérete a nanométeres tartományban mozog, és amelyek energia hatására megadott hullámhosszú fényt bocsátanak ki. A közönséges LED-es tévék esetében a színeket szűrőkkel állítják elő, de ezek sosem képesek arra, hogy kizárólag egy adott hullámhosszúságú fényt engedjenek át. A QLED tévékben azonban kék LED-ek, illetve vörös és zöld fény kibocsátására képes kvantumpontok vannak, ezek helyettesítik a szűrőket. A QLED azonban csak egy köztes lépés a valódi kvantumpontkijelzők felé vezető úton: ezekben ugyanis a kék színért is ilyen elemek felelnek. Jelenleg a gyártók még nem képesek ezeket nagy számban és főleg hosszú élettartammal gyártani. A végső cél egyébként az, hogy a kvantumpontokat elektromos feszültséggel gerjesszék, így a szűrőket teljesen el lehetne hagyni, a kijelzők színvisszaadása pedig közel tökéletes lehetne. A Samsung szerint az ezzel kapcsolatos áttörések 2019-ben történhetnek. (A Chip nyomán.)
