Jak zainstalować LLaMA 3 na komputerze z systemem Windows 11?

Jak Zainstalowac Llama 3 Na Komputerze Z Systemem Windows 11



Llama 3 to najnowszy model dużego języka firmy Meta. Można go używać do różnych celów, takich jak rozwiązywanie zapytań, uzyskiwanie pomocy w zadaniach domowych i projektach szkolnych itp. Lokalne wdrożenie Llama 3 na komputerze z systemem Windows 11 pomoże Ci korzystać z niego w dowolnym momencie, nawet bez dostępu do Internetu. Ten artykuł pokazuje jak zainstalować Llamę 3 na komputerze z systemem Windows 11 .



  Zainstaluj Llamę w systemie Windows





Jak zainstalować Llamę 3 na komputerze z systemem Windows 11

Instalacja Lamy 3 na komputerze z systemem Windows 11 za pomocą języka Python wymaga umiejętności technicznych i wiedzy. Jednak niektóre alternatywne metody umożliwiają lokalne wdrożenie Lamy 3 na komputerze z systemem Windows 11. Pokażę ci te metody.





Aby zainstalować Llamę 3 na komputerze z systemem Windows 11, musisz wykonać pewne polecenia w wierszu poleceń. Pozwoli to jednak używać tylko wersji wiersza poleceń. Jeśli chcesz korzystać z jego internetowego interfejsu użytkownika, musisz podjąć dalsze kroki. Pokażę ci obie te metody.



Wdróż Llamę 3 na komputerze z systemem Windows 11 za pośrednictwem CMD

Aby wdrożyć Llamę 3 na komputerze z systemem Windows 11, musisz zainstalować Ollamę na komputerze z systemem Windows. Aby to zrobić, wykonaj następujące czynności:

  Pobierz Ollamę na Windows

  1. Odwiedzać Oficjalna strona Ollama .
  2. Kliknij na Pobierać przycisk, a następnie wybierz Okna .
  3. Teraz kliknij na Pobierz dla systemu Windows przycisk, aby zapisać plik exe na komputerze.
  4. Uruchom plik exe, aby zainstalować Ollamę na swoim komputerze.

Gdy Ollama zostanie zainstalowana na Twoim urządzeniu, uruchom ponownie komputer. Powinien działać w tle. Możesz to zobaczyć na pasku zadań. Teraz kliknij opcję Modele na stronie internetowej Ollama. Zobaczysz różne modele.



Lama 3.1 dostępna jest w trzech parametrach:

darmowe aplikacje filmowe dla systemu Windows 10
  • 8B
  • 70B
  • 405B

Ten ostatni jest największym parametrem i oczywiście nie można go uruchomić na komputerze PC z niższej półki. Lama 3.2 ma następujące dwa parametry:

  • 1B
  • 3B

Kliknij wersję Lamy, którą chcesz zainstalować na swoim komputerze. Na przykład, jeśli chcesz zainstalować Llamę 3.2, kliknij Llama 3.2. Z rozwijanego menu możesz wybrać parametr, który chcesz zainstalować. Następnie skopiuj polecenie obok niego i wklej je w wierszu polecenia.

  Polecenie modelu Flame 3.2 1B

Dla Twojej wygody oba polecenia napisałem dla modelu Llama 3.2. Aby zainstalować model Llama 3.2 3B, uruchom następujące polecenie:

ollama run llama3.2:3b

Aby zainstalować model Llama 3.2 1B, użyj następującego polecenia:

ollama run llama3.2:1b

  Instalacja pomyślna

Otwórz wiersz poleceń, wpisz dowolne z wyżej wymienionych poleceń (w zależności od wymagań) i naciśnij Wchodzić . Pobranie wymaganych plików zajmie trochę czasu. Czas pobierania będzie również zależał od szybkości Twojego połączenia internetowego. Po zakończeniu zobaczysz sukces wiadomość w wierszu poleceń.

Teraz wpisz wiadomość, aby skorzystać z modelu Lamy 3.2. Jeżeli chcesz zainstalować model Llama 3.1 skorzystaj z poleceń dostępnych na stronie Ollama.

co to jest vs

Przy następnym uruchomieniu wiersza poleceń użyj tego samego polecenia, aby uruchomić Llamę 3.1 lub 3.2 na swoim komputerze.

Instalacja Lamy 3 poprzez CMD ma jedną wadę. Nie zapisuje historii rozmów. Jeśli jednak wdrożysz go na hoście lokalnym, Twoja historia czatów zostanie zapisana i uzyskasz lepszy interfejs użytkownika. Następna metoda pokazuje, jak to zrobić.

miniatury onedrive nie są wyświetlane

Wdróż interfejs sieciowy Lamy 3 w systemie Windows 11

Korzystanie z Llama 3 w przeglądarce internetowej zapewnia lepszy interfejs użytkownika, a także zapisuje historię czatów w porównaniu do używania jej w oknie CMD. Pokażę Ci, jak wdrożyć Llamę 3 w przeglądarce internetowej.

Aby korzystać z Llama 3 w przeglądarce internetowej, w systemie powinna być zainstalowana wersja Llama 3 poprzez Ollama i Docker. Jeśli jeszcze nie zainstalowałeś Lamy 3, zainstaluj ją za pomocą Ollama (jak wyjaśniono powyżej). Teraz pobierz i zainstaluj Docker z jego oficjalna strona internetowa .

Po zainstalowaniu Dockera uruchom go i zarejestruj się, aby utworzyć konto. Docker nie będzie działać, dopóki się nie zarejestrujesz. Po rejestracji zaloguj się na swoje konto w aplikacji Docker. Minimalizuj Docker do paska zadań. Aplikacje Docker i Ollama powinny działać w tle. W przeciwnym razie nie będziesz mógł korzystać z Llama 3 w swojej przeglądarce internetowej.

  Uruchom polecenie Lama dla Dockera

Teraz otwórz Wiersz Poleceń, skopiuj następujące polecenie i wklej je w Wierszu Poleceń:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

  Kontener dokowany dla Lamy 3

Pobranie wymaganych zasobów za pomocą powyższego polecenia zajmie trochę czasu. Dlatego uzbrój się w cierpliwość. Po zakończeniu polecenia otwórz Docker i wybierz Kontenery odcinek od lewej strony. Zobaczysz, że kontener zostanie utworzony automatycznie z portem 3000:8080.

uszkodzony film

Kliknij port 3000:8080. Spowoduje to otwarcie nowej karty w domyślnej przeglądarce internetowej. Teraz zarejestruj się i zaloguj, aby móc korzystać z Llama 3 w przeglądarce internetowej. Jeśli zobaczysz pasek adresu, zobaczysz host lokalny: 3000 tam, co oznacza, że ​​Llama 3 jest hostowana lokalnie na Twoim komputerze. Można z niego korzystać bez połączenia z Internetem.

  Użyj Llama 3 w przeglądarce internetowej

Z listy rozwijanej wybierz swój model czatu Lamy. Jeśli chcesz dodać więcej modeli czatu Llama 3, musisz zainstalować go poprzez Ollamę, używając wymaganych poleceń. Następnie model będzie automatycznie dostępny w Twojej przeglądarce internetowej.

Cała historia czatów zostanie zapisana i będzie dostępna po lewej stronie. Jeśli chcesz zakończyć, wyloguj się z sesji w przeglądarce internetowej. Następnie otwórz aplikację Docker i kliknij Zatrzymywać się przycisk, aby zatrzymać Dockera. Teraz możesz zamknąć Dockera.

Jeśli następnym razem będziesz chciał użyć Lamy 3 w swojej przeglądarce internetowej, uruchom Ollamę i Dockera, odczekaj kilka minut, a następnie kliknij port w kontenerze Docker, aby otworzyć serwer localhost w swojej przeglądarce internetowej. Teraz zaloguj się na swoje konto i zacznij korzystać z Llama 3.

Mam nadzieję, że to pomoże.

Czy Llama 3 może działać w systemie Windows?

W zależności od konfiguracji sprzętowej komputera, możesz uruchomić Llamę 3 w swoim systemie. Jego model 1B jest najlżejszy. Można go zainstalować i uruchomić w systemie za pomocą wiersza poleceń.

Ile pamięci RAM potrzebuję do Lamy 3?

Najlżejszy model Lamy 3 to Llama 3.2 1B. Twój system powinien mieć 16 GB pamięci RAM, aby uruchomić model Llama 3.2 1B. Oprócz tego Twój system powinien być wyposażony w wytrzymały procesor graficzny. Wyższe modele Lamy 3 wymagają większych zasobów systemowych.

Przeczytaj dalej : Jak korzystać ze sztucznej inteligencji Leonardo Phoenix .

Popularne Wiadomości