ขั้นตอนการติดตั้ง Ollama
การติดตั้ง Ollama (LLaMA) สำหรับการใช้งานในโปรเจ็กต์ AI หรือ Chatbot เป็นเรื่องที่สามารถทำได้ง่ายเพียงไม่กี่ขั้นตอน นี่คือวิธีการติดตั้ง Ollama บนระบบปฏิบัติการ Windows และ Linux รวมถึงการเริ่มต้นใช้งาน

1. ติดตั้ง Python
Ollama จำเป็นต้องใช้ Python ในการทำงาน ดังนั้นขั้นตอนแรกคือการติดตั้ง Python บนระบบของคุณ
วิธีติดตั้ง Python บน Windows:
- ไปที่เว็บไซต์ของ Python ที่ https://www.python.org/downloads/
- ดาวน์โหลด Python เวอร์ชันล่าสุดที่รองรับบนระบบปฏิบัติการของคุณ
- เปิดไฟล์ที่ดาวน์โหลดมาและทำตามคำแนะนำในโปรแกรมติดตั้ง
- ในระหว่างการติดตั้ง ให้เลือก Add Python to PATH จากนั้นคลิก Install Now
วิธีติดตั้ง Python บน Linux:
ใช้คำสั่งด้านล่างนี้ใน terminal เพื่อติดตั้ง Python:
sudo apt update
sudo apt install python3 python3-pip
Code language: Bash (bash)
2.ติดตั้ง Ollama
บน Windows:
- ไปที่เว็บไซต์ของ Ollama ที่ https://ollama.com/download
- เลือกเวอร์ชันสำหรับ Windows และดาวน์โหลด
- หลังจากดาวน์โหลดเสร็จแล้ว เปิดไฟล์ติดตั้งและทำตามขั้นตอนเพื่อเสร็จสิ้นการติดตั้
บน Linux:
หากคุณใช้ Linux สามารถติดตั้งได้ง่าย ๆ ด้วยคำสั่ง:
curl -sSL https://ollama.com/install | bash
Code language: Bash (bash)
คำสั่งนี้จะดาวน์โหลดและติดตั้ง Ollama ให้คุณโดยอัตโนมัติ
3.ติดตั้ง Python Dependencies
หลังจากติดตั้ง Ollama แล้ว คุณสามารถติดตั้ง dependencies ที่จำเป็นสำหรับโปรเจ็กต์ของคุณได้ ด้วยคำสั่งนี้:
pip install ollama
Code language: Bash (bash)
4. เริ่มต้นใช้งาน Ollama
หลังจากติดตั้งเสร็จสิ้นแล้ว คุณสามารถใช้ Ollama ผ่าน Python หรือ Command Line Interface (CLI) ได้
ตัวอย่างการใช้งานผ่าน CLI:
หากคุณต้องการใช้งานผ่าน CLI เพียงแค่เปิด terminal หรือ command prompt แล้วพิมพ์:
ollama chat "Hello, how are you?"
Code language: Bash (bash)
5. การตรวจสอบการติดตั้ง
เพื่อตรวจสอบว่า Ollama ถูกติดตั้งและทำงานได้อย่างถูกต้อง คุณสามารถใช้คำสั่งใน CLI:
ollama status
Code language: Bash (bash)
6. การโหลดโมเดลสำหรับ Ollama
หลังจากติดตั้ง Ollama แล้ว คุณต้องโหลดโมเดลที่ต้องการใช้ เช่น LLaMA 3.2, Mistral, หรือ Code Llama สามารถดาวน์โหลดโมเดลได้โดยใช้คำสั่ง CLI หรือ Python API
โหลดโมเดลผ่าน CLI
ใช้คำสั่ง
ollama run
เพื่อดาวน์โหลดโมเดลที่ต้องการ
ตัวอย่าง: ดาวน์โหลด llama3.2
ollama run llama3.2
Code language: Bash (bash)
ตัวอย่างโมเดลที่รองรับ:
-
llama3
– โมเดล LLaMA 3 -
mistral
– โมเดล Mistral -
gemma
– โมเดลของ Google AI -
codellama
– โมเดลสำหรับช่วยเขียนโค้ด -
phi
– โมเดลขนาดเล็กสำหรับงานทั่วไป
7. ตรวจสอบโมเดลที่ติดตั้ง
หากต้องการตรวจสอบว่ามีโมเดลอะไรบ้างที่โหลดอยู่ในเครื่อง ให้ใช้คำสั่งนี้:
ollama list
Code language: Bash (bash)
ระบบจะแสดงรายการโมเดลที่สามารถใช้งานได้
สรุป
- ใช้
ollama pull <model>
เพื่อโหลดโมเดล - ใช้
ollama list
เพื่อตรวจสอบว่ามีโมเดลอะไรบ้าง - ใช้
ollama chat <model>
หรือollama.chat()
เพื่อเริ่มใช้งาน
เพียงเท่านี้ คุณก็สามารถใช้ Ollama ได้อย่างเต็มประสิทธิภาพ! 🚀