Jak zainstalowałem AI

Do lokalnego uruchomienia nowych dużych modeli językowych od firmy DeepSeek wystarczy posłużyć się programem o nazwie Ollama. To darmowe oprogramowanie daje nam dostęp do pokaźnej bazy LLM, które można w bardzo łatwy sposób pobierać, a następnie z nich korzystać. Najpierw musimy przejść pod ten adres i nacisnąć przycisk Download. Ollama dostępna jest dla różnych dystrybucji opartych na jądrze Linux, a także systemu macOS oraz Windows. W pierwszym przypadku wystarczy uruchomić terminal i wykonać widoczne na stronie polecenie. W dwóch ostatnich po prostu pobieramy instalator, włączamy go i przechodzimy przez standardowy proces instalacji. Tuż po niej wystarczy uruchomić terminal i wpisać polecenie ollama pull nazwa_modelu. Kiedy wybrany przez nas model zostanie pobrany, wpisujemy ollama run nazwa_modelu, aby zacząć z niego korzystać.

 Liczba parametrówRozmiarKomenda do instalacjiKomenda do uruchomienia
DeepSeek-R11,5 mld1,1 GBollama pull deepseek-r1:1.5bollama run deepseek-r1:1.5b
DeepSeek-R17 mld4,7 GBollama pull deepseek-r1:7bollama run deepseek-r1:7b
DeepSeek-R18 mld4,9 GBollama pull deepseek-r1:8bollama run deepseek-r1:8b
DeepSeek-R114 mld9,0 GBollama pull deepseek-r1:14bollama run deepseek-r1:14b
DeepSeek-R132 mld20 GBollama pull deepseek-r1:32bollama run deepseek-r1:32b
DeepSeek-R170 mld43 GBollama pull deepseek-r1:70bollama run deepseek-r1:70b
DeepSeek-R1671 mld404 GBollama pull deepseek-r1:671bollama run deepseek-r1:671b

Który Wybraliście ?





Jak zainstalowałem AI (Devika + Ollama) na swoim komputerze lokalnym


Jak zainstalowałem AI (Devika + Ollama) na swoim komputerze lokalnym

Data publikacji: 9 kwietnia 2025

W dzisiejszym wpisie podzielę się moją przygodą z instalacją lokalnego systemu AI – Devika + Ollama.
Celem było stworzenie własnego, samodzielnego „kombajnu AI”, który będzie działać bez chmury, abonamentów czy ograniczeń.

Dlaczego lokalna sztuczna inteligencja?

  • Brak kosztów miesięcznych
  • Pełna kontrola nad danymi
  • Brak limitów zapytań
  • Możliwość pracy offline

Krok 1: Instalacja Ollama

  1. Pobrałem instalator z ollama.com.
  2. Zainstalowałem go na Windowsie.
  3. W terminalu wpisałem:
    ollama serve
  4. Następnie dodałem model AI:
    ollama pull deepseek-r1:14b
  5. I uruchomiłem go:
    ollama run deepseek-r1:14b

Krok 2: Instalacja Deviki

  1. Sklonowałem projekt:
    git clone https://github.com/stitionai/devika.git
  2. Utworzyłem środowisko:
    python -m venv venv
  3. Aktywowałem je i zainstalowałem zależności:
    .\venv\Scripts\activate
    pip install -r requirements.txt
  4. Utworzyłem plik .env z zawartością:
    OLLAMA_MODEL=deepseek-r1:14b
    OPENAI_API_KEY=fake_token
  5. Uruchomiłem backend:
    python devika.py
  6. Uruchomiłem frontend (UI):
    cd ui
    bun install
    bun run dev

Efekt końcowy

Po wejściu na localhost:3000 zobaczyłem elegancki panel AI gotowy do pracy.
Po wpisaniu pierwszego prompta Devika wygenerowała działający kod, a ja dostałem automatycznie strukturę projektu w folderze workspace.

Podsumowanie

To było niesamowite uczucie – uruchomić sztuczną inteligencję działającą w pełni lokalnie, bez żadnych kosztów.
Jeśli chcesz mieć pełną kontrolę, własnego pomocnika AI i niezależność – polecam z całego serca ten zestaw.

Tagi SEO:

Devika, Ollama, lokalne AI, jak zainstalować AI na Windows, deepseek-r1, open webui, docker AI, prywatny czat GPT, sztuczna inteligencja na komputerze


Podobne wpisy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *