Praca programisty nieustannie wiąże się z nowościami. Nowe biblioteki, frameworki, aktualizacje, które nie do końca działają jak trzeba, zmieniające się wymagania... I co najważniejsze – coraz większe oczekiwania względem automatyzacji.
Od jakiegoś czasu sztuczna inteligencja przestała być zabawką czy ciekawostką. Zaczyna realnie wspierać nas w projektach.
Na blogu już wcześniej poruszałem tematykę AI, zaczynając od ogólnego wprowadzenia:
Te wpisy pokazały, że da się szybko i sprawnie zintegrować LLM (duże modele językowe) z kodem .NET.
Ale to była bardziej eksploracja — teraz przyszło konkretne zastosowanie z życia.
W jednym z bieżących projektów pojawił się temat automatyzacji odpowiedzi dla użytkowników — kontekst był rozproszony: trochę danych w systemie, część w e-mailu, część w dokumentach. Tradycyjne podejście: pisać parsery, reguły, if-y, switch-e. Da się? Da się. Ale już wiemy, że to:
✖️ niewydajne,
✖️ trudne do utrzymania,
✖️ zupełnie nieelastyczne.
Zaczęliśmy więc szukać sposobu, żeby to… po prostu opisać słowami. A potem niech się dzieje magia.
Semantic Kernel to open-source’owe SDK od Microsoftu, które pozwala zintegrować modele LLM z klasycznym kodem. Umożliwia pisanie własnych funkcji (pluginów), planowanie złożonych operacji, zarządzanie kontekstem i dostępem do pamięci. Mówiąc krótko — można stworzyć agenta, który sam rozumie, planuje i działa.
Co ważne dla nas: działa bardzo dobrze w środowisku .NET, wspiera C#, Pythona i JavaScript, a do tego świetnie dogaduje się z Microsoft 365, Azure i Outlookiem.
Nie ukrywam — jako programista .NET nie miałem większego dylematu. Semantic Kernel po prostu pasuje do tego, jak pracujemy: DI, pluginy, rozszerzalność, wszystko dobrze znane. A fakt, że można budować pluginy jako zwykłe klasy C#, tylko ułatwia sprawę.
Dla równowagi — wiem, że wielu czytelników bloga pracuje w Pythonie. Dlatego przygotowałem osobny wpis, w którym porównuję Semantic Kernel z jego najbardziej znanym konkurentem: LangChain. Warto go przeczytać niezależnie od technologii, w jakiej pracujesz.
W kolejnych wpisach pokażę:
Wprowadzenie do Semantic Kernel – szybki przegląd możliwości
Tworzenie i używanie pluginów
Wbudowane pluginy
Planery w Semantic Kernel
Tworzenie agenta AI – kod od zera
Zarządzanie kontekstem i pamięcią
Integracja z Microsoft 365 (Outlook, Teams, OneDrive)
Semantic Kernel vs LangChain
Zaawansowane scenariusze – case study
Najlepsze praktyki, wskazówki i pułapki
Finalny projekt: Research Assistant
Podsumowanie i dalsze kierunki rozwoju
To nie będzie kolejna seria o "jak działa API OpenAI".
Tu skupimy się na budowaniu realnych aplikacji AI w środowisku .NET, z pełną kontrolą nad kodem, zachowaniem i integracją z istniejącą infrastrukturą.
Jeśli jesteś gotów, następny wpis już za chwilę — zaczniemy od wprowadzenie do tworzenia i używania pluginów.