Llama 3 to najnowszy model dużego języka firmy Meta. Można go używać do różnych celów, takich jak rozwiązywanie zapytań, uzyskiwanie pomocy w zadaniach domowych i projektach szkolnych itp. Lokalne wdrożenie Llama 3 na komputerze z systemem Windows 11 pomoże Ci korzystać z niego w dowolnym momencie, nawet bez dostępu do Internetu. Ten artykuł pokazuje jak zainstalować Llamę 3 na komputerze z systemem Windows 11 .
Jak zainstalować Llamę 3 na komputerze z systemem Windows 11
Instalacja Lamy 3 na komputerze z systemem Windows 11 za pomocą języka Python wymaga umiejętności technicznych i wiedzy. Jednak niektóre alternatywne metody umożliwiają lokalne wdrożenie Lamy 3 na komputerze z systemem Windows 11. Pokażę ci te metody.
Aby zainstalować Llamę 3 na komputerze z systemem Windows 11, musisz wykonać pewne polecenia w wierszu poleceń. Pozwoli to jednak używać tylko wersji wiersza poleceń. Jeśli chcesz korzystać z jego internetowego interfejsu użytkownika, musisz podjąć dalsze kroki. Pokażę ci obie te metody.
Wdróż Llamę 3 na komputerze z systemem Windows 11 za pośrednictwem CMD
Aby wdrożyć Llamę 3 na komputerze z systemem Windows 11, musisz zainstalować Ollamę na komputerze z systemem Windows. Aby to zrobić, wykonaj następujące czynności:
- Odwiedzać Oficjalna strona Ollama .
- Kliknij na Pobierać przycisk, a następnie wybierz Okna .
- Teraz kliknij na Pobierz dla systemu Windows przycisk, aby zapisać plik exe na komputerze.
- Uruchom plik exe, aby zainstalować Ollamę na swoim komputerze.
Gdy Ollama zostanie zainstalowana na Twoim urządzeniu, uruchom ponownie komputer. Powinien działać w tle. Możesz to zobaczyć na pasku zadań. Teraz kliknij opcję Modele na stronie internetowej Ollama. Zobaczysz różne modele.
Lama 3.1 dostępna jest w trzech parametrach:
darmowe aplikacje filmowe dla systemu Windows 10
- 8B
- 70B
- 405B
Ten ostatni jest największym parametrem i oczywiście nie można go uruchomić na komputerze PC z niższej półki. Lama 3.2 ma następujące dwa parametry:
- 1B
- 3B
Kliknij wersję Lamy, którą chcesz zainstalować na swoim komputerze. Na przykład, jeśli chcesz zainstalować Llamę 3.2, kliknij Llama 3.2. Z rozwijanego menu możesz wybrać parametr, który chcesz zainstalować. Następnie skopiuj polecenie obok niego i wklej je w wierszu polecenia.
Dla Twojej wygody oba polecenia napisałem dla modelu Llama 3.2. Aby zainstalować model Llama 3.2 3B, uruchom następujące polecenie:
ollama run llama3.2:3b
Aby zainstalować model Llama 3.2 1B, użyj następującego polecenia:
ollama run llama3.2:1b
Otwórz wiersz poleceń, wpisz dowolne z wyżej wymienionych poleceń (w zależności od wymagań) i naciśnij Wchodzić . Pobranie wymaganych plików zajmie trochę czasu. Czas pobierania będzie również zależał od szybkości Twojego połączenia internetowego. Po zakończeniu zobaczysz sukces wiadomość w wierszu poleceń.
Teraz wpisz wiadomość, aby skorzystać z modelu Lamy 3.2. Jeżeli chcesz zainstalować model Llama 3.1 skorzystaj z poleceń dostępnych na stronie Ollama.
co to jest vs
Przy następnym uruchomieniu wiersza poleceń użyj tego samego polecenia, aby uruchomić Llamę 3.1 lub 3.2 na swoim komputerze.
Instalacja Lamy 3 poprzez CMD ma jedną wadę. Nie zapisuje historii rozmów. Jeśli jednak wdrożysz go na hoście lokalnym, Twoja historia czatów zostanie zapisana i uzyskasz lepszy interfejs użytkownika. Następna metoda pokazuje, jak to zrobić.
miniatury onedrive nie są wyświetlane
Wdróż interfejs sieciowy Lamy 3 w systemie Windows 11
Korzystanie z Llama 3 w przeglądarce internetowej zapewnia lepszy interfejs użytkownika, a także zapisuje historię czatów w porównaniu do używania jej w oknie CMD. Pokażę Ci, jak wdrożyć Llamę 3 w przeglądarce internetowej.
Aby korzystać z Llama 3 w przeglądarce internetowej, w systemie powinna być zainstalowana wersja Llama 3 poprzez Ollama i Docker. Jeśli jeszcze nie zainstalowałeś Lamy 3, zainstaluj ją za pomocą Ollama (jak wyjaśniono powyżej). Teraz pobierz i zainstaluj Docker z jego oficjalna strona internetowa .
Po zainstalowaniu Dockera uruchom go i zarejestruj się, aby utworzyć konto. Docker nie będzie działać, dopóki się nie zarejestrujesz. Po rejestracji zaloguj się na swoje konto w aplikacji Docker. Minimalizuj Docker do paska zadań. Aplikacje Docker i Ollama powinny działać w tle. W przeciwnym razie nie będziesz mógł korzystać z Llama 3 w swojej przeglądarce internetowej.
Teraz otwórz Wiersz Poleceń, skopiuj następujące polecenie i wklej je w Wierszu Poleceń:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Pobranie wymaganych zasobów za pomocą powyższego polecenia zajmie trochę czasu. Dlatego uzbrój się w cierpliwość. Po zakończeniu polecenia otwórz Docker i wybierz Kontenery odcinek od lewej strony. Zobaczysz, że kontener zostanie utworzony automatycznie z portem 3000:8080.
uszkodzony film
Kliknij port 3000:8080. Spowoduje to otwarcie nowej karty w domyślnej przeglądarce internetowej. Teraz zarejestruj się i zaloguj, aby móc korzystać z Llama 3 w przeglądarce internetowej. Jeśli zobaczysz pasek adresu, zobaczysz host lokalny: 3000 tam, co oznacza, że Llama 3 jest hostowana lokalnie na Twoim komputerze. Można z niego korzystać bez połączenia z Internetem.
Z listy rozwijanej wybierz swój model czatu Lamy. Jeśli chcesz dodać więcej modeli czatu Llama 3, musisz zainstalować go poprzez Ollamę, używając wymaganych poleceń. Następnie model będzie automatycznie dostępny w Twojej przeglądarce internetowej.
Cała historia czatów zostanie zapisana i będzie dostępna po lewej stronie. Jeśli chcesz zakończyć, wyloguj się z sesji w przeglądarce internetowej. Następnie otwórz aplikację Docker i kliknij Zatrzymywać się przycisk, aby zatrzymać Dockera. Teraz możesz zamknąć Dockera.
Jeśli następnym razem będziesz chciał użyć Lamy 3 w swojej przeglądarce internetowej, uruchom Ollamę i Dockera, odczekaj kilka minut, a następnie kliknij port w kontenerze Docker, aby otworzyć serwer localhost w swojej przeglądarce internetowej. Teraz zaloguj się na swoje konto i zacznij korzystać z Llama 3.
Mam nadzieję, że to pomoże.
Czy Llama 3 może działać w systemie Windows?
W zależności od konfiguracji sprzętowej komputera, możesz uruchomić Llamę 3 w swoim systemie. Jego model 1B jest najlżejszy. Można go zainstalować i uruchomić w systemie za pomocą wiersza poleceń.
Ile pamięci RAM potrzebuję do Lamy 3?
Najlżejszy model Lamy 3 to Llama 3.2 1B. Twój system powinien mieć 16 GB pamięci RAM, aby uruchomić model Llama 3.2 1B. Oprócz tego Twój system powinien być wyposażony w wytrzymały procesor graficzny. Wyższe modele Lamy 3 wymagają większych zasobów systemowych.
Przeczytaj dalej : Jak korzystać ze sztucznej inteligencji Leonardo Phoenix .