|
Wsiąkłem. W pracę. I oczywiście, że coraz intensywniej zacząłem używać AI. Teraz nie wyobrażam sobie pracy bez jakiegoś LLMa. Czy to dlatego, że jestem leniwy? Z pewnością! Do tego jestem też ciekawy jak to się wszystko potoczy. Niewątpliwie zmiany już są widoczne na rynku pracy - zwolnienia, przetasowania i optymalizacje. Dzisiaj opiszę Ci jak wygląda praktyczne zarządzanie platformami przy użyciu AI. A jeśli szukasz okazji na Black Friday to info o nich znajdziesz na końcu ⬇️.
Jak wykorzystuję AI do zarządzania platformami
Wszystko zaczyna się od tego, że cała platforma jest w kodzie - wszystko zarządzane przez GitOps. To nie jest opcjonalne, to jest fundament. Bez tego nie ma mowy o sensownym wykorzystaniu AI do zarządzania platformą.
Mój proces podzieliłem na dwa etapy:
Etap 1 - Zarządzanie z czatu w IDE z AI
To jest to, co robię teraz na co dzień. Zamiast ręcznie edytować pliki, uruchamiać komendy i sprawdzać status, po prostu rozmawiam z agentem w IDE. Kluczowe jest tutaj wykorzystanie MCP (Model Context Protocol) - standardu, który pozwala agentom korzystać z narzędzi i serwisów. Napisałem nawet własny serwer MCP do OCI, bo brakowało takiego rozwiązania. To pokazuje, jak ważne są te komponenty - bez nich agent nie ma dostępu do rzeczywistych systemów. Więcej o moim projekcie związanym z AI i zarządzaniem platformami możesz przeczytać w tym artykule.
Etap 2 - Agenty działające na platformie
To jest przyszłość, nad którą pracuję. Agenty działające bezpośrednio na platformie (jako pody w klastrze Kubernetes), które odpowiadają za:
- koordynację aktualizacji
- sprawdzanie kodu w repo GitOps (buildy na PR)
- optymalizację kosztową
- automatyczne reagowanie na problemy
To jeszcze nie jest gotowe, ale widzę tu ogromny potencjał.
Jakich narzędzi używam?
Głównie IDE z wbudowanymi agentami AI. Próbowałem różnych:
- Cursor - bardzo spoko, fajne usystematyzowanie rules i instrukcji. To był game-changer dla mnie.
- VS Code z GitHub Copilot - mnie nie przekonał, brakowało mi spójności w podejściu. Efekty były gorsze niż w przypadku Cursora, nawet w wersji płatnej.
- Antigravity - wydany niedawno, za darmo to przewaga, dobry model, ale u mnie się gubił. Jeszcze nad nim popracuję.
- Windsurf, Zed i inne - trochę próbowałem, może wrócę do nich w przyszłości.
Moje wnioski z dotychczasowej pracy
Po kilku miesiącach intensywnego używania AI do zarządzania platformami, mam już sporo obserwacji:
GitOps jest konieczny - to oczywista oczywistość
Bez GitOps nie ma mowy o sensownym wykorzystaniu AI. Agent musi mieć dostęp do kodu, który opisuje stan platformy. Bez tego nie może nic zrobić. To nie jest opcjonalne. Jeśli chcesz dowiedzieć się więcej o GitOps, zapraszam do poprzednich newsletterów i odcinków podcastu, gdzie szczegółowo o tym opowiadałem.
Context pożera pieniądze jak szalony
Firmy od modeli będą bogate. Moje $20 “wydałem” w niecałe 2 tygodnie! Trzeba ograniczać spożycie i nauczyć się jak to robić. Duże konteksty wysyłane do modeli LLM są drogie, więc warto:
- ograniczać ilość plików w kontekście
- używać podsumowań zamiast pełnych plików
- wybierać modele z mniejszymi kontekstami, gdy to możliwe
- korzystać z MCP, które może być bardziej efektywne niż wrzucanie wszystkiego do kontekstu
Jeszcze się tego uczę, bo firmom od modeli nie zależy, abym płacił mniej :)
Serwery MCP są krytycznym składnikiem, ale…
Są w powijakach. Standard się rozwija - to super! Każdy chce coś napisać (i kto to mówi |