AI Project Lifecycle
Pada materi ini kita sudah masuk dalam AI Project Lifecycle, berikut rencana materi kita
Table of Content
- Ruang Lingkup
- Multi Domain
- Single Domain
- Pemilihan Model
- Adaptasi & Penyesuaian
- Prompt Engineering
- Fine-Tuning
- Align with Human Feedback
- Evaluation
- Integrasi
- Inferencing
- Augmented Model
Ruang Lingkup Project
Pada materi ini kita sudah masuk ke dalam implementasi AI, lebih spesifik lagi Generative AI dalam project. Penerapan ini bisa apa saja sesuai kebutuhan bisnis.
Nah, dalam kesempatan ini kita akan belajar tentang Generative AI Project Lifecycle.
Scope (Mendefinisikan Use Case)
Tahap yang dalam project apapun adalah mendefinisikan ruang lingkup seluas dan sesempit apa project kita nanti. Seperti yang telah kita lihat dalam penggunaan AI sejauh ini, LLM mampu melakukan banyak tugas, tetapi kemampuan mereka sangat bergantung pada ukuran dan arsitektur model.
Multi-Domain vs Single-Domain
Maka, kita harus memikirkan fungsi apa yang akan dimiliki LLM dalam aplikasi spesifik. Apakah memerlukan model untuk dapat melakukan banyak tugas yang berbeda, termasuk pembuatan teks bentuk panjang atau dengan tingkat kemampuan yang tinggi, atau apakah tugas yang jauh lebih spesifik seperti translation sehingga model hanya perlu pintar dalam satu hal. Semakin spesifik sebuah model, dapat menghemat waktu dan mungkin yang lebih penting, menghemat biaya.
LLM Single-Domain:
- PubMedGPT (Kesehatan)
- Bloomberg AI (Finansial)
LLM Multi-Domain
- GPT4
- Llama
- Gemini
Select (Pemilihan Model)
Pada bagian ini kita akan memilih mau memulai dari existing model atau model baru. Umumnya, kita akan memulai dari model yang sudah ada, pertimbangan ini bisa saja bergantung pada domain bisnis kita.
Contoh beberapa Foundation Model
Adapt and Align Model (Evaluasi Model)
Pada dasarnya dalam tahapan ini kita sudah memulai untuk menilai kinerja dari model yang sudah kita pilih.
Prompt Engineering
Dimulai dari meningkatkan kualitas model dalam memahami context (in-context learning) dengan meningkatkan kualitas prompt yang diberikan. Tujuannya agar model dapat memberikan respon terarah dan berbobot sesuai dengan yang diinginkan.
Contoh melengkapi kalimat:
- Saya suka makan nasi dan minum … -> teh.
- Mereka bermain sepak bola di … -> lapangan.
- Kucing itu tidur di atas … -> sofa.
Sekarang, lengkapi kalimat ini: 4. Siswa & siswi belajar membaca di … ->
Kunci In-Context Learning:
- Memberikan Contoh: Prompt berisi beberapa pasangan contoh input-output.
- Mempertahankan Pola: Model belajar pola dari contoh tanpa memodifikasi parameternya.
- Adaptasi Cepat: Model langsung memproses tugas baru berdasarkan konteks yang diberikan.
Fine-Tuning
Namun, bila kinerja model belum baik meskipun sudah dilakukan peningkatan dalam prompting. maka bisa saja perlu dilakukan penyesuaian lagi melalui proses Fine-Tuning.
Proses Fine-Tuning
Fine-tuning adalah proses melatih ulang model yang sudah dilatih sebelumnya dengan data pelatihan yang lebih kecil dan spesifik. Proses ini memungkinkan model untuk menyesuaikan parameternya agar lebih sesuai dengan tugas baru.
Align with Human-Feedback
Tahapan ini adalah proses membuat model AI bekerja sesuai dengan apa yang diharapkan manusia.
- Caranya: Kita meminta manusia untuk memberi penilaian atau koreksi terhadap jawaban model. Model kemudian belajar dari umpan balik ini untuk menghasilkan jawaban yang lebih baik di masa depan.
- Tujuannya: Model lebih “sejalan” dengan kebutuhan pengguna dan memberikan hasil yang lebih relevan atau etis.
Contoh Sederhana:
Misalkan kita membuat chatbot, dan chatbot itu menjawab:
“Manusia tidak perlu berolahraga.”
Kita (manusia) memberi masukan:
“Jawaban ini salah. Orang perlu olahraga untuk kesehatan.”
Model belajar dari feedback agar tidak lagi memberi jawaban seperti itu.
Evaluate
Evaluasi adalah proses menguji model AI untuk memastikan kinerjanya sesuai dengan harapan sebelum model digunakan dalam aplikasi nyata. Tujuannya adalah memastikan model bekerja dengan baik dalam berbagai situasi, menghasilkan jawaban yang akurat, relevan, dan etis.
Proses ini masih sinkron dengan Prompt-Engineering, Fine-Tuning, dan Align with Human-Feedback. Setelah Prompt-Engineering lakukan Evaluasi, bila hasil belum baik, maka lakukan Fine-Tuning lalu Evaluasi lagi dan seterusnya.
Integrasi
Optimalkan dan Deploy model untuk inferencing
Model yang dilatih biasanya besar dan membutuhkan banyak sumber daya untuk dijalankan. Di sini, model dioptimalkan agar lebih cepat dan efisien saat digunakan.
- Pruning: Menghapus bagian model yang tidak terlalu penting.
- Quantization: Mengurangi ukuran data yang digunakan model tanpa mengorbankan akurasi terlalu banyak.
- Batching: Memproses beberapa input sekaligus untuk efisiensi.
Memperkaya kemampuan model dan membuat aplikasi berbasis LLM
Model dapat dilatih untuk task-task lainnya dan model yang sudah dibangun dalam server production dibuat agar mendukung API (Application Programming Interface) atau antarmuka lain, sehingga aplikasi bisa “berbicara” dengan model.
Referensi
https://www.datacamp.com/tutorial/fine-tuning-large-language-models https://www.snowflake.com/guides/llm-inference/
Comments
Leave a Comment