Nowe badania oferują wyrafinowane podejście do obliczania kosztów energii w procesach obliczeniowych, potencjalnie torując drogę do bardziej energooszczędnych obliczeń i zaawansowanych projektów chipów.
Każdy system komputerowy, biologiczny lub syntetyczny – od komórek i mózgów po laptopy – wiąże się z kosztami. Koszt ten nie jest jedynie ceną pieniężną, którą można łatwo określić, ale raczej kosztem energii powiązanym z wysiłkiem niezbędnym do uruchomienia programu i ciepłem wydzielanym podczas procesu.
Naukowcy z SFI i innych ośrodków spędzili dziesięciolecia na opracowywaniu termodynamicznej teorii obliczeń, ale poprzednie prace nad kosztem energii skupiały się na podstawowych obliczeniach symbolicznych – takich jak wymazanie pojedynczego bitu – których nie można łatwo przenieść do mniej przewidywalnego świata rzeczywistego scenariusze obliczeniowe.
W artykule niedawno opublikowanym w czasopiśmie Przegląd fizyczny Xkwartet fizyków i informatyków rozwija współczesną teorię termodynamiki obliczeń. Łącząc podejścia z fizyki statystycznej i informatyki, badacze wprowadzają równania matematyczne, które ujawniają minimalny i maksymalny przewidywany koszt energii procesów obliczeniowych zależnych od losowości, która jest potężnym narzędziem we współczesnych komputerach.
Praktyczne implikacje nowych badań
W szczególności platforma oferuje wgląd w sposób obliczania granic kosztów energii w procesach obliczeniowych o nieprzewidywalnym zakończeniu. Na przykład: Symulator rzucania monetą może zostać poinstruowany, aby przestał rzucać po uzyskaniu 10 orłów. W biologii komórka może przestać wytwarzać białko, gdy wywoła określoną reakcję innej komórki. „Czasy zatrzymania” tych procesów, czyli czas potrzebny do osiągnięcia celu po raz pierwszy, mogą się różnić w zależności od próby. Nowe ramy oferują prosty sposób obliczenia dolnych granic kosztów energii w takich sytuacjach.
Badania przeprowadzili profesor SFI David Wolpert, Gonzalo Manzano (Instytut Fizyki Międzydyscyplinarnej i Systemów Złożonych, Hiszpania), Édgar Roldán (Instytut Fizyki Teoretycznej, Włochy) i absolwent SFI Gülce Kardes (CU Boulder). Badanie odkrywa sposób na obniżenie kosztów energetycznych dowolnych procesów obliczeniowych. Na przykład: algorytm wyszukujący imię lub nazwisko osoby w bazie danych może przestać działać, jeśli znajdzie którekolwiek z nich, ale nie wiemy, które z nich znalazł. „Wiele maszyn obliczeniowych, postrzeganych jako systemy dynamiczne, ma tę właściwość, że po przeskoczeniu z jednego stanu do drugiego naprawdę nie można wrócić do stanu pierwotnego w jednym kroku” – mówi Kardes.
Podstawy teoretyczne i kontekst historyczny
Wolpert zaczął badać sposoby zastosowania idei z nierównowagowej fizyki statystycznej do teorii obliczeń około dziesięć lat temu. Komputery, mówi, to system niezrównoważony, a termodynamika stochastyczna umożliwia fizykom badanie układów nierównowagowych. „Jeśli połączyć te dwie rzeczy, wydawało się, że wyjdą najróżniejsze fajerwerki w duchu SFI” – mówi.
W ostatnich badaniach, które położyły podwaliny pod nową publikację, Wolpert i współpracownicy wprowadzili koncepcję „kosztu niedopasowania” lub miary tego, o ile koszt obliczeń przekracza granicę Landauera. Limit ten, zaproponowany w 1961 roku przez fizyka Rolfa Landauera, określa minimalną ilość ciepła potrzebną do zmiany informacji w komputerze. Wolpert twierdzi, że znajomość kosztów niedopasowania może pomóc w opracowaniu strategii obniżenia całkowitego kosztu energii w systemie.
Po drugiej stronie Atlantyku współautorzy Manzano i Roldán opracowują narzędzie wywodzące się z matematyki finansowej — teorię martyngału — umożliwiające badanie termodynamicznego zachowania małych systemów wahających się w momentach zatrzymania. Roldan i in. al. „Martyngały dla fizyków” pomogły utorować drogę do pomyślnych zastosowań takiego podejścia martyngałowego w termodynamice.
Wolpert, Kardes, Roldán i Manzano w swoim artykule PRX rozszerzają te narzędzia z termodynamiki stochastycznej na obliczanie kosztu niedopasowania do typowych problemów obliczeniowych.
Podsumowując, ich badania wskazują nowy sposób znajdowania najniższej energii potrzebnej do obliczeń w dowolnym systemie, niezależnie od sposobu jego wdrożenia. „Odsłania mnóstwo nowych problemów” – mówi Wolpert.
Może mieć również bardzo praktyczne zastosowanie, wskazując nowe sposoby zwiększenia efektywności energetycznej komputerów. Narodowa Fundacja Nauki szacuje, że komputery zużywają od 5% do 9% światowej energii generowanej, ale przy obecnym tempie wzrostu do 2030 r. może to osiągnąć 20%. Jednak wcześniejsze prace badaczy z SFI sugerują, że współczesne komputery są rażąco nieefektywne: Systemy biologiczne, m.in. przeciwnie, są około 100 000 razy bardziej energooszczędne niż komputery zbudowane przez człowieka. Wolpert twierdzi, że jedną z głównych motywacji ogólnej termodynamicznej teorii obliczeń jest znalezienie nowych sposobów zmniejszenia zużycia energii przez maszyny w świecie rzeczywistym.
Na przykład lepsze zrozumienie sposobu, w jaki algorytmy i urządzenia wykorzystują energię do wykonywania określonych zadań, mogłoby wskazać na bardziej wydajne architektury chipów komputerowych. Jak twierdzi Wolpert, nie ma obecnie jasnego sposobu na stworzenie fizycznych chipów, które mogłyby wykonywać zadania obliczeniowe przy mniejszym zużyciu energii.
„Tego rodzaju techniki mogą zapewnić latarkę w ciemności” – mówi.
Odniesienie: „Termodynamika obliczeń z absolutną nieodwracalnością, przejściami jednokierunkowymi i czasami obliczeń stochastycznych” Gonzalo Manzano, Gülce Kardeş, Édgar Roldán i David H. Wolpert, 13 maja 2024 r., Przegląd fizyczny X.
DOI: 10.1103/PhysRevX.14.021026