
Tworzenie Agentów AI i Praca z Lokalnymi Modelami LLM
Zajęcia poświęcone tworzeniu Agentów AI i pracy z lokalnymi modelami LLM wprowadzają uczestników w praktyczne wykorzystanie nowoczesnych narzędzi sztucznej inteligencji. Program jest przeznaczony dla użytkowników indywidualnych, uczniów kierunków technik informatyk i technik programista oraz pracowników branży IT, którzy chcą poszerzyć swoje kompetencje w zakresie projektowania, konfiguracji i wdrażania rozwiązań opartych na modelach językowych. Zajęcia obejmują 16 godzin kształcenia, w tym 8 godzin teorii oraz 8 godzin praktycznych warsztatów, umożliwiających zdobycie realnych umiejętności pracy z lokalnymi LLM i budowania własnych agentów AI.
Zakres nauczania
- Wprowadzenie do n8n
Omówienie platformy n8n, jej możliwości oraz praktycznych zastosowań w automatyzacji procesów. Wyjaśnienie, jak działa środowisko, jak korzystać z interfejsu użytkownika oraz jak tworzyć pierwsze przepływy pracy, wykorzystując elementy takie jak węzły i workflow.
- Integracja z modelami AI
Przedstawienie sposobów łączenia n8n z różnymi API modeli sztucznej inteligencji (np. OpenAI, Gemini). Pokazanie, jak tworzyć elastyczne i dynamiczne workflow, które komunikują się z modelami w celu przetwarzania danych, analiz czy generowania odpowiedzi.
- Tworzenie agentów AI
Budowanie inteligentnych agentów automatyzujących konkretne zadania, takich jak obsługa wiadomości email, analiza treści, klasyfikacja danych, ekstrakcja informacji z dokumentów czy analiza komentarzy z mediów społecznościowych. Omówienie ich działania, logiki oraz implementacji.
- Zaawansowane mechanizmy wykorzystywane przy tworzeniu agentów AI
Praca z kluczowymi funkcjami n8n: węzłami HTTP Request oraz Webhook, wykorzystaniem formularzy, obróbką i ekstrakcją danych, a także możliwością rozszerzania funkcjonalności poprzez własny kod w JavaScript lub Pythonie.
- Wprowadzenie do lokalnych modeli LLM
Szerokie wprowadzenie do lokalnie uruchamianych modeli językowych, ich zalet, ograniczeń oraz zastosowań. Przegląd różnic między narzędziami takimi jak Ollama i LM Studio oraz omówienie popularnych modeli, m.in. LLaMA, Gemma, Mistral, Phi czy DeepSeek.
- Instalacja i konfiguracja środowiska lokalnych modeli
Instrukcja instalacji LM Studio oraz Ollama, wraz z interfejsem Open WebUI. Wyjaśnienie, jak pobierać modele, uruchamiać je zarówno z poziomu GUI, jak i CLI, oraz jak korzystać z lokalnego API modeli do integracji w aplikacjach i procesach firmowych.
- Dostosowanie Ollama do potrzeb firmy
Tworzenie użytkowników, zarządzanie dostępem do modeli i organizacja środowiska. Przedstawienie sposobów konfiguracji LLM pod kątem różnych grup użytkowników oraz ustawień dopasowanych do konkretnych procesów biznesowych, takich jak pobieranie danych z zewnętrznych wyszukiwarek.
- Metody adaptacji modeli LLM do wymagań organizacji
Omówienie technik dostosowywania modeli, w tym RAG (Retrieval-Augmented Generation) w Ollama i LM Studio, a także podstaw fine-tuningu — kiedy warto go stosować i jakie daje możliwości.