Jak zainstalowałem AI
Do lokalnego uruchomienia nowych dużych modeli językowych od firmy DeepSeek wystarczy posłużyć się programem o nazwie Ollama. To darmowe oprogramowanie daje nam dostęp do pokaźnej bazy LLM, które można w bardzo łatwy sposób pobierać, a następnie z nich korzystać. Najpierw musimy przejść pod ten adres i nacisnąć przycisk Download. Ollama dostępna jest dla różnych dystrybucji opartych na jądrze Linux, a także systemu macOS oraz Windows. W pierwszym przypadku wystarczy uruchomić terminal i wykonać widoczne na stronie polecenie. W dwóch ostatnich po prostu pobieramy instalator, włączamy go i przechodzimy przez standardowy proces instalacji. Tuż po niej wystarczy uruchomić terminal i wpisać polecenie ollama pull nazwa_modelu. Kiedy wybrany przez nas model zostanie pobrany, wpisujemy ollama run nazwa_modelu, aby zacząć z niego korzystać.
Liczba parametrów | Rozmiar | Komenda do instalacji | Komenda do uruchomienia | |
DeepSeek-R1 | 1,5 mld | 1,1 GB | ollama pull deepseek-r1:1.5b | ollama run deepseek-r1:1.5b |
DeepSeek-R1 | 7 mld | 4,7 GB | ollama pull deepseek-r1:7b | ollama run deepseek-r1:7b |
DeepSeek-R1 | 8 mld | 4,9 GB | ollama pull deepseek-r1:8b | ollama run deepseek-r1:8b |
DeepSeek-R1 | 14 mld | 9,0 GB | ollama pull deepseek-r1:14b | ollama run deepseek-r1:14b |
DeepSeek-R1 | 32 mld | 20 GB | ollama pull deepseek-r1:32b | ollama run deepseek-r1:32b |
DeepSeek-R1 | 70 mld | 43 GB | ollama pull deepseek-r1:70b | ollama run deepseek-r1:70b |
DeepSeek-R1 | 671 mld | 404 GB | ollama pull deepseek-r1:671b | ollama run deepseek-r1:671b |
Który Wybraliście ?
Jak zainstalowałem AI (Devika + Ollama) na swoim komputerze lokalnym
Data publikacji: 9 kwietnia 2025
W dzisiejszym wpisie podzielę się moją przygodą z instalacją lokalnego systemu AI – Devika + Ollama.
Celem było stworzenie własnego, samodzielnego „kombajnu AI”, który będzie działać bez chmury, abonamentów czy ograniczeń.
Dlaczego lokalna sztuczna inteligencja?
- Brak kosztów miesięcznych
- Pełna kontrola nad danymi
- Brak limitów zapytań
- Możliwość pracy offline
Krok 1: Instalacja Ollama
- Pobrałem instalator z ollama.com.
- Zainstalowałem go na Windowsie.
- W terminalu wpisałem:
ollama serve
- Następnie dodałem model AI:
ollama pull deepseek-r1:14b
- I uruchomiłem go:
ollama run deepseek-r1:14b
Krok 2: Instalacja Deviki
- Sklonowałem projekt:
git clone https://github.com/stitionai/devika.git
- Utworzyłem środowisko:
python -m venv venv
- Aktywowałem je i zainstalowałem zależności:
.\venv\Scripts\activate pip install -r requirements.txt
- Utworzyłem plik
.env
z zawartością:OLLAMA_MODEL=deepseek-r1:14b OPENAI_API_KEY=fake_token
- Uruchomiłem backend:
python devika.py
- Uruchomiłem frontend (UI):
cd ui bun install bun run dev
Efekt końcowy
Po wejściu na localhost:3000 zobaczyłem elegancki panel AI gotowy do pracy.
Po wpisaniu pierwszego prompta Devika wygenerowała działający kod, a ja dostałem automatycznie strukturę projektu w folderze workspace
.
Podsumowanie
To było niesamowite uczucie – uruchomić sztuczną inteligencję działającą w pełni lokalnie, bez żadnych kosztów.
Jeśli chcesz mieć pełną kontrolę, własnego pomocnika AI i niezależność – polecam z całego serca ten zestaw.
Tagi SEO:
Devika, Ollama, lokalne AI, jak zainstalować AI na Windows, deepseek-r1, open webui, docker AI, prywatny czat GPT, sztuczna inteligencja na komputerze