Google to jedna z tych firm, które starają się aktywnie walczyć ze zmianami klimatycznymi i stawiają na energię odnawialną. DeepMind zaś może pomóc w uczynieniu tej ostatniej bardziej opłacalną.
(Działający pod skrzydłami firmy Google) zespół DeepMind wie jak będzie wiało i zamierza tę wiedzę wykorzystać. Ekipa, o której głośno zrobiło się po tym, jak jej AlphaGo pokonał mistrzów Go, znalazła kolejne zastosowanie dla swojej sztucznej inteligencji.
Zespół DeepMind zamierza udowodnić, że jej algorytmy sprawdzają się nie tylko w grach, ale też w znacznie bardziej praktycznych zastosowaniach. Jednym z nich ma być optymalizacja działania elektrowni wiatrowych.
Z elektrowniami wiatrowymi jest bowiem taki problem, że wiatr pojawia się i znika – mówiąc kolokwialnie – jak mu się podoba. Z tego też powodu firmy energetyczne nie są w stanie wykorzystać pełni potencjału, jaki drzemie w tym odnawialnym źródle, a przez to też inwestują w takie rozwiązania mniej niż by mogły.
Kontrolowanie wiatru jest niemożliwe, ale jego zrozumienie już tak. I właśnie tego próbuje dokonać DeepMind. Zespół zamierza wykorzystać uczenie maszynowe, aby przewidywać to, jak będzie zachowywał się wiatr w najbliższej przyszłości, a konkretnie: w ciągu najbliższych 36 godzin.
Na niebiesko przewidywania, na szaro – stan faktyczny.
Testy takiego rozwiązania ruszyły w ubiegłym roku. Prognozy DeepMind zostały wykorzystane do opracowywania strategii dla turbin wiatrowych, z jakich Google korzysta w swoim „zielonym” projekcie, a efektem (jak czytamy w komunikacie) jest wzrost wartości energii wiatrowej o około 20 proc. Możliwość przewidzenia efektywności turbin pozwala bowiem dokonać lepszego planowania.
„W ostatnim dziesięcioleciu farmy wiatrowe stały się ważnym źródłem energii, ponieważ koszty turbin gwałtownie spadły i ich popularność gwałtownie wzrosła. Zmienna natura samego wiatru sprawia jednak, że jest nieprzewidywalnym źródłem energii. […] Nasz algorytm przyniósł jednak pozytywne rezultaty” – powiedziała Sims Witherspoon z DeepMind.
Źródło: Google, Engadget. Foto: fxxu/Pixabay (1), Pexels/Pixabay (2)
Komentarze
3Nie ma nawet 70% dokladnosci, co w branzy jest zenujace, zazwyczaj > 85% dokladnosci uwaza sie za niezle, 93% za bdb i 97% za super dokladnosc.
Co prawda nie wiadomo ile zmiennych uzywali i jakie sa parametry, ale biorac pod uwage ile tych modeli sie przerabialo, to bym powiedzial ze dobrali zle hiperparametry.
"Nauka wprost nie moze znieść faktu że jesteśmy świadomi"- Rupert Sheldrake