Misalnya, LLM sumber terbuka Alpaca Stanford yang dirilis pada pertengahan Maret, menggunakan bobot LLaMA. Vicuna, versi LLaMA yang disempurnakan, menyamai kinerja GPT-4, semakin membuktikan peran berpengaruh LLaMA di ruang LLM.
Jadi, LLaMA telah memainkan peran kunci dalam status LLM open-source saat ini. Mulai dari chatbot yang lucu hingga model yang disempurnakan dengan aplikasi serius.
Rilis LLaMA berlangsung pada bulan Februari. Meta mengizinkan peneliti yang disetujui untuk mengunduh model. Namun, menurut para senator, LLaMA kurang berhati-hati dalam memusatkan dan membatasi akses.
Kontroversi LLaMA
Kontroversi muncul dari diseminasi terbuka LLaMA.
Tak lama setelah pengumumannya, model lengkapnya muncul di BitTorrent, sehingga LLaMA dapat diakses oleh siapa saja.
Aksesibilitas ini menghasilkan lompatan signifikan dalam kualitas model AI yang tersedia untuk publik, sehingga menimbulkan pertanyaan tentang potensi penyalahgunaan.
Para senator tampaknya bahkan mempertanyakan apakah memang ada “kebocoran” model LLaMA.
Tetapi, fokus mereka pada masalah ini muncul pada saat pengembangan AI bahasa open-source baru dan canggih yang diluncurkan oleh perusahaan rintisan, kolektif, dan akademisi yang mulai membanjiri internet.
Surat itu menuduh Meta seharusnya meramalkan penyebaran luas dan potensi penyalahgunaan LLaMA, mengingat perlindungan rilisnya yang minimal.
Meta juga menyediakan bobot LLaMA berdasarkan kasus per kasus untuk akademisi dan peneliti, termasuk Stanford untuk proyek Alpaca.
Namun, bobot ini kemudian dibocorkan, memungkinkan akses global ke LLM level GPT untuk pertama kalinya.
Intinya, bobot model adalah komponen LLM dan model pembelajaran mesin lainnya, sedangkan LLM adalah contoh khusus yang menggunakan bobot tersebut untuk memberikan hasil. (xin/rge)