Propozycja sprzętowa

Trzy poziomy.
Trzy możliwości.

Trzy konfiguracje obok siebie. Pod każdą krótko piszę, do czego sam bym jej używał.

Fotografia 360° · Strony Next.js · Wdrożenia AI dla lokalnych firm

Przewiń
Trzy konfiguracje

Od najtańszej
po taką, jakiej
chciałbym najbardziej.

🥈 Średni

MacBook Pro 16"

M5 Max · baza

20 200 zł brutto
  • CPU16 rdzeni
  • GPU40 rdzeni
  • Neural Engine16 rdzeni
  • RAM unified48 GB
  • Pasmo pamięci614 GB/s
  • SSD2 TB
  • EkranNanostrukturalne

Model 30B chodzi w tle, Claude Code pisze kod, Docker trzyma środowisko testowe, w przeglądarce kilkadziesiąt kart. Wszystko naraz, bez kombinowania co wyłączyć żeby coś uruchomić. Tyle, ile naprawdę potrzebuję na co dzień.

🥉 Minimalny

MacBook Pro 14"

M5 Pro · baza

10 999 zł brutto
  • CPU12 rdzeni
  • GPU20 rdzeni
  • Neural Engine16 rdzeni
  • RAM unified24 GB
  • Pasmo pamięci307 GB/s
  • SSD1 TB
  • EkranStandard

Strony Next.js, skrypty i modele do 13B chodzą bez problemu. Zaczyna brakować przy większych wdrożeniach — kiedy chcę postawić kilka kontenerów obok siebie i odpalić większy model. Wtedy 24 GB robi się ciasne i trzeba zamykać karty.

Dlaczego nie 14

Dlaczego
16 cali,
nie 14.

Cena nie pokazuje wszystkiego. Trzy różnice, przez które 16 cali ciągnie ciężką pracę dłużej niż 14.

Ekran roboczy

Na 16 calach IDE, terminal i przeglądarka mieszczą się obok siebie. Każde okno widzę bez przełączania. Przy Claude Code model co chwilę edytuje pliki, odpala testy, sprawdza wyniki — wolę widzieć to na bieżąco niż klikać między kartami co minutę.

Chłodzenie aktywne

MacBook Air nie ma wentylatora i po kilkunastu minutach ciężkiej pracy zaczyna zwalniać. Pro ma aktywne chłodzenie, a w 16" jest go więcej niż w 14". Przy kilkugodzinnej sesji z modelem zegar procesora trzyma się tych samych wartości i nie ucieka.

GPU i pasmo pamięci

14" z M5 Max ma 32 rdzenie GPU i 460 GB/s pasma. 16" startuje od 40 rdzeni i 614 GB/s. Modele językowe ogranicza głównie pasmo pamięci, więc te dodatkowe GB/s wprost przekładają się na tokeny na sekundę. To czuć w trakcie pracy, nie tylko na papierze.

Co to w ogóle jest

M5 Max,
w trzech
akapitach.

Bez żargonu, na tyle prosto, żebyś sam ocenił czy ta cena ma sens.

01

Unified Memory

Normalnie GPU ma swoją pamięć (VRAM), CPU osobny RAM, a model AI musi przerzucać dane między nimi. W M5 Max GPU i CPU mają wspólną pamięć fizyczną, więc model 70B leży tam w całości i nic się nie kopiuje. Windowsowe laptopy z 8–16 GB VRAM muszą taki model dzielić albo trzymać kawałek na dysku — wychodzi wolniej i mniej stabilnie.

02

Neural Engine

16 rdzeni zrobionych specjalnie pod obliczenia tensorowe — czyli matematykę, na której stoi każdy model AI. Dodatkowo każdy rdzeń GPU ma własne neural acceleratory. To nie marketing, tylko konkretny krzem, który liczy szybciej. Na mnożeniu macierzy model językowy spędza większość czasu, więc to dokładnie ta operacja, którą warto przyspieszyć.

03

Benchmark w liczbach

Llama 3.1 70B na M5 Max z 128 GB RAM daje około 10 tokenów na sekundę — tyle, żeby spokojnie czytać odpowiedź na bieżąco. GPT-4 w chmurze leci 30–50 tokenów/s, ale za każde zapytanie się płaci, a dane wychodzą poza firmę. Lokalnie wszystko zostaje na laptopie, więc mogę obsługiwać klientów, którzy na chmurę po prostu się nie zgodzą.

Co z tym robię

Sześć rzeczy,
na które
idzie ten sprzęt.

Lokalna inferencja

Modele LLM odpalam u siebie. Klient, który nie może puścić danych do chmury (RODO, NDA), dostaje wdrożenie, gdzie wszystko zostaje na moim laptopie.

Claude Code agentowy

Moje główne narzędzie do wdrożeń. Model planuje, pisze, odpala testy, poprawia kod w pętli — czasem przez kilka godzin pod rząd. Jeśli komputer zaczyna zwalniać, ja zaczynam czekać, a to znaczy stracony dzień.

Automatyzacja i pipeline'y

Workflowy AI dla klientów: audyty SEO, generowanie treści podstron, czyszczenie i przetwarzanie danych. Składam to i testuję u siebie zanim cokolwiek dotknie ich produkcji.

Mobilny workstation

Cała moc w plecaku. Rano mogę u klienta zrobić sesję 360°, po południu kodować jego stronę na tej samej maszynie. Bez kompa stacjonarnego, bez zdalnego pulpitu do biura.

Stack developerski

Docker, Next.js, Python, kilka kontenerów naraz, przeglądarka z trzydziestoma kartami. U mnie tak wygląda zwykły dzień pracy nad systemami klientów.

Grafika i identyfikacja wizualna

Stable Diffusion, Flux i ComfyUI odpalam lokalnie. Robię grafiki na strony klientów, propozycje identyfikacji wizualnej (logo, paleta, banery), wektory pod konkretną sytuację. Pomysły nie wychodzą z mojej maszyny i nie muszę płacić Midjourney co miesiąc.

Skala pracy

Sam dowożę to,
na co kiedyś
szła agencja.

Robi to AI — konkretnie Claude od Anthropica. Z nim ogarniam systemy, na które wcześniej trzeba było wystawić sześcio- czy ośmioosobowy zespół. Ten sam zakres kosztuje 4–15 tys. zł zamiast 30–100 tys., a powstaje w 1–4 tygodnie zamiast pół roku.

Dawniej · 2020–2024

Duża agencja

  • Zespół6–8 osób
  • Cena projektu30 000 – 150 000 zł
  • Czas realizacji3–6 miesięcy
  • KomunikacjaAccount manager

PM, analityk, dwóch programistów, tester, designer, account. Do tego spotkania, dokumentacja, kontrakty i przekazania między działami. Każda zmiana po wdrożeniu to osobna oferta.

Teraz · 2025+

Igor + Claude

  • Zespół1 osoba + AI
  • Cena projektu4 000 – 15 000 zł
  • Czas realizacji1–4 tygodnie
  • KomunikacjaBezpośrednio ze mną

Salon fryzjerski albo mały gabinet stomatologiczny dostaje dedykowany system za 4–6 tys. zł — taniej niż roczna licencja Booksy. Drobne zmiany po wdrożeniu robię zwykle tego samego dnia.