Dla tych co czekali na mój kurs “Kubernetes po polsku” mam dobrą wiadomość - jest ponownie dostępny, a szczegóły na końcu. Dzisiaj opiszę też dlaczego jesteśmy oszukiwani w sprawie AI i co z tym możemy zrobić.
Wyobrażenia
Wyobraźcie sobie scenariusz, w którym to AI wykonuje za nas całą pracę. To wizja, która jest nam serwowana zewsząd. Nie będziemy już zmuszeni pisać linijek kodu, bo AI przejmie całe to zadanie i zaproponuje gotowe, dopracowane rozwiązania. Na czym to będzie polegać?
Otóż, w magiczny sposób, wystarczy rzucić mu problem, a AI, niczym wszechwiedzący guru, wygeneruje perfekcyjne rozwiązanie. Proste kliknięcie w przycisk, "git push", "kubectl apply", "terraform apply" i voila! Nasza infrastruktura, aplikacje, wszystko działa idealnie, zautomatyzowane do granic możliwości i bez naszego większego wysiłku! Nie będziemy musieli się więcej martwić o logikę i analizę, ponieważ AI przejmie całą tę odpowiedzialność, więc my będziemy mogli w końcu odpocząć i skupić się na ważniejszych
zadaniach. Do tego każdy z nas, posiadając jedynie dostęp do ChatGPT lub innego modelu językowego, stanie się ekspertem w dowolnej dziedzinie - bo AI będzie nas w tym wspierać, usuwając bariery wejścia i przyspieszając naukę.
Rzeczywistość
Niestety, rzeczywistość brutalnie weryfikuje te marzenia i idealistyczne podejście. Nie jest tak różowo, jak się nam to maluje w reklamach, a wręcz powiedziałbym, że jesteśmy oszukiwani kłamstwami grubymi nićmi szytymi. To, co obserwujemy w rzeczywistości to zupełnie inny obraz.
Okazuje się, że generowany kod często wymaga dokładnego przejrzenia i sprawdzenia, czy nie ma tak zwanych "halucynacji", czyli wymyślonych przez AI faktów i błędnych założeń. Modele AI bazują na danych z przeszłości, więc często generowane rozwiązania wymagają dostosowania do najnowszych standardów, aktualnych wersji narzędzi oraz wymagań dotyczących bezpieczeństwa, które zmieniają się dynamicznie. Nie możemy zapominać o dostosowywaniu generowanego kodu pod specyfikę naszego środowiska, nasze własne obrazy, customowe endpointy usług, autoryzację i wiele innych, mniej oczywistych rzeczy. To nie jest uniwersalne rozwiązanie "one-size-fits-all", jak to bywa przedstawiane.
AI owszem dostarczy nam kod, ale co dalej?
Jak go poprawnie użyć?
Jak go wdrożyć, aby był stabilny i dostępny?
Co w przypadku, gdy coś przestanie działać? Jak w takim przypadku naprawić usterkę i gdzie szukać problemów?
Bez głębszego zrozumienia całej architektury i niuansów działania danego rozwiązania, jesteśmy w pułapce i zgubieni. Musimy pamiętać też o tym, że wdrożenie to tylko wierzchołek góry lodowej, gdyż prawdziwa praca zaczyna się dopiero potem - dostosowanie pod zmienne wymagania, usprawnianie, optymalizacja, wprowadzanie zmian i rozwijanie całości systemu.
Co to dla nas oznacza
Zastanówmy się, co to wszystko tak naprawdę dla nas oznacza. Czy AI to tylko kolejne rozdmuchane hasło marketingowe, którego potencjał jest mocno przeceniany? Zdecydowanie nie! AI to potężne narzędzie, które ma szansę odmienić naszą pracę, ale musimy podejść do tego inaczej.
AI przyniesie znacznie większe korzyści tym, co już posiadają wiedzę, bo to narzędzie jest potężne, ale wymaga doświadczenia i solidnych podstaw, aby w pełni wykorzystać jego potencjał. Samo poleganie na odpowiedziach AI nie wystarczy, bo rozumienie niczego nie zastąpi. Musimy NAJPIERW zrozumieć, jak działają dane technologie, aby LEPIEJ wykorzystać wiedzę i moc AI, która pokaże swoją prawdziwą siłę dopiero, gdy będziemy mieli solidne fundamenty i odpowiednie doświadczenie. Nie możemy zakładać, że nagle staniemy się mistrzami DevOps, ponieważ to co utworzy AI to nie jest czarna skrzynka, a generowany kod wymaga zrozumienia, co tam się dzieje, abyśmy mogli go modyfikować, dodawać nowe elementy, a także szybko i sprawnie naprawiać błędy.
Jeśli dopiero zaczynamy swoją przygodę z technologią i mamy małą wiedzę, małe rozumienie tematów - to AI będzie dla nas głównie narzędziem do nauki, więc używajmy AI do nauki, ale nie polegajmy na nim w pełni przy wykonywaniu zadań produkcyjnych. Zdobądźmy wiedzę, doświadczenie i solidne podstawy, a wtedy AI faktycznie przyspieszy nasz rozwój.
Z kolei, jeśli posiadamy solidną wiedzę i doświadczenie, AI możemy użyć do zlecania prostszych, powtarzalnych zadań, aby przyspieszyć naszą pracę, oszczędzając czas na bardziej skomplikowane i strategiczne działania.
W czasach AI, gdzie nie musimy już skupiać się na żmudnym pisaniu kodu, myślenie jest na wagę złota, a to właśnie logiczna analiza, krytyczne podejście oraz umiejętność rozwiązywania problemów to kluczowe umiejętności w dynamicznym świecie IT. To co musimy doskonalić to rozumienie, analiza i krytyczne podejście do tego, co generuje AI, bo to nam umożliwi wykorzystanie jej w pełni.
#MyślenieJestWcenie. Również w czasach AI.
Kubernetes po polsku dostępny do 11 lutego
Wiele osób pisało do mnie i czekało na ten moment – otwieram sprzedaż części PRO mojego kursu "Kubernetes po polsku". To w niej znajdziesz najbardziej zaawansowane treści i praktyczne umiejętności, które pozwolą Ci zrozumieć Kubernetes na poziomie eksperckim. Pamiętaj, że AI zmieni najwięcej dla tych, którzy naprawdę rozumieją, jak działają systemy, a Kubernetes jest jednym z fundamentów, na których opiera się cała architektura nowoczesnych aplikacji. A wszyscy wiemy, gdzie będą uruchamiane aplikacje oraz agenty AI przez
najbliższe lata – właśnie na platformach takich jak Kubernetes.
Szczegóły znajdziecie na stronie kursu.
⏰ Sprzedaż trwa tylko do 11 lutego. Zatem jest kilka dni na poszukanie środków z budżetu szkoleniowego w firmie lub zainwestowanie w siebie z pry
Nowe części serii “AI w minutę”
Tradycyjnie na końcu przedstawiam listę dostępnych wideo tłumaczących jak działa AI.
1: Jaka jest różnica między AI a LLM? 2: Czym jest LLM? 3: Jak powstaje LLM? 4: Jaka działa LLM? 5: Czym są parametry w LLM? 6: Ile kosztuje korzystanie z LLM? 7: Czym jest self-attention? 8: Czym jest cutoff w LLM? 9: Czym są tokeny? 10: Czym są embeddings? (niepubliczne - obecnie dostępne tylko dla subskrybentów) 11: Czym jest RAG? (już w poniedziałek 10 lutego)
|