Żeby z AI nie popełnić błędu, jaki zrobiono z autostradami

2 dni temu

W 1956 roku Kongres Stanów Zjednoczonych wprowadził federalną ustawę o pomocy drogowej, która była dotychczas największym projektem robót publicznych w historii Ameryki. Zobowiązał się do pokrycia 90 proc. kosztów budowy 66 tys. km autostrad. Pomimo wzniosłych intencji i zrewolucjonizowania poruszania się po USA , autostrady miały wiele negatywnych konsekwencji. Począwszy od burzenia całe dzielnic miejskich, rozrostu slumsów, po zanieczyszczenia środowiska, wynikające z nadmiernej roli samochodów.

Moshe Tanach współzałożyciel i CEO startupu NeuReality uważa, iż to jak negatywne skutki, ta w założeniu słuszna ustawa, jest dobrą lekcją dla tego co dziś dzieje z AI (też w założeniu z przynoszącą wiele dobra technologią). Pytanie jest dziś takie: czy gdybyśmy mieli szansę zrobić to jeszcze raz, czy wybralibyśmy rozwiązanie bazujące głównie na autostradach i samochodach czy może warto było dużo mocniej postawić na sieć pociągów dużych prędkości, jak w Japonii i w dużych krajach UE.

Dziś głównym wyzwaniem z jakimi walczy dziś branża technologiczna: w jaki sposób wytworzymy wystarczająco dużo energii, aby obsłużyć rosnącą liczbę centrów danych skoncentrowanych na sztucznej inteligencji? Powtarzając słowa prezydenta Eisenhowera, czy łącząc dynamiczne systemy komunikacji i transportu wokół sztucznej inteligencji, położymy podwaliny pod zjednoczoną przyszłość, czy też znajdziemy się jedynie w sojuszu wielu oddzielnych części?

Dziś jednym z głównych wyzwań jeżeli chodzi o AI jest rosnącą potrzebą zaspokojenia żarłocznego zapotrzebowania algorytmów na energię. Według Światowego Forum Ekonomicznego moc obliczeniowa potrzebna do utrzymania rozwoju sztucznej inteligencji podwaja się mniej więcej co 100 dni .

Rozwiązać możemy to na dwa sposoby. Albo dostarczymy większej ilości energii do zasilania sztucznej inteligencji (czyli budując więcej autostrad) albo podejdziemy do tego rozsądniej koncentrując się na obniżeniu koszty energii AI (czyli inwestując w koleje dużych prędkości). Jedna ścieżka prowadzi do przyszłości wysysające energię i niszczącej klimat, druga zaś jest zrównoważona i zyskowna.

Dobra wiadomość jest taka, iż ​​na kilku frontach już widać ruch, który pokazuje, iż drastyczne obniżenie kosztów energii u źródła — samego centrum danych AI — jest możliwe. To podejście nie tylko sprawia, iż ​​AI jest bardziej przystępne cenowo; ma ono na celu fundamentalne zmniejszenie zużycia energii na operację AI. Poprzez poprawę wydajności na poziomie sprzętu i systemu możemy przetwarzać więcej zadań AI przy mniejszym zużyciu energii, zamiast po prostu umożliwiać większe wykorzystanie przy niższym koszcie.

Badacze tacy jak Sara Hooker opowiadają się za scentralizowanym systemem oceny, który ocenia efektywność energetyczną modeli AI, podobnie jak samochody są oceniane pod kątem standardów energetycznych. Jednocześnie MIT Lincoln Laboratory Supercomputing Center opracowuje techniki , takie jak ustalanie limitów mocy, jaką mogą pobierać określone komponenty, oraz narzędzia, które zatrzymują szkolenie AI wcześniej niż zwykle, wszystko po to, aby znaleźć sposoby na zmniejszenie mocy, efektywne szkolenie modeli i uczynienie zużycia energii przejrzystym. Możemy również spojrzeć na Europę, gdzie ponad 100 operatorów centrów danych zobowiązało się do uczynienia swoich lokalizacji neutralnymi dla klimatu do 2030 r.

Jednym z ciekawszych podejść jest znalezienie sposobu na całkowite wyeliminowanie procesorów CPU (centralnych jednostek przetwarzania) w serwerach wnioskowania AI. Skasowanie tego głównego wąskiego gardła w uruchamianiu wyszkolonych modeli AI znacznie poprawiłoby wydajność i efektywność centrów danych AI.

W przeciwnym razie byłoby to tak, jakby budować wszystkie te szybsze samochody sportowe i SUV-y z obsługą sztucznej inteligencji, ale korzystać z tych samych starych dróg bez czujników, sygnałów lub danych satelitarnych, aby wskazać tym pojazdom najlepszą, najefektywniejszą trasę w danym dniu lub godzinie — lub informować o zbliżającym się pojeździe na niewłaściwym pasie.

To niezwykłe, iż ta sama infrastruktura procesorów, która napędzała nasze komputery osobiste i erę Internetu, w tej chwili utrudnia postęp w erze sztucznej inteligencji. Można to próbować robić pomijając główny procesor i zwiększyć wydajność chipów AI. Albo budować chipy specjalnie zaprojektowane do przetwarzania sztucznej inteligencji,

Jeśli chodzi o przyszłość AI, to możemy albo dużo zainwestować w przestarzałe sposoby dostarczania energii, które dodatkowo obciążają nasze obecne sieci energetyczne, albo znaleźć sposób na obniżenie kosztów u źródła – samego centrum danych AI – dzięki wbudowanej inżynierii systemów wykonuje większość tej ciężkiej pracy.

Idź do oryginalnego materiału