Perusahaan OpenAl, baru saja merilis a Versi ChatGPT dalam sumber terbuka. Versi ini menampilkan dirinya sebagai spesies generik, mampu melakukan semua fungsi yang dilakukan oleh pembuat teks asli. Namun, versi yang dirilis membutuhkan pelatihan yang tidak terjangkau bagi kebanyakan orang.
Pembuat teks ChatGPT
lihat lebih banyak
Waspada: Tanaman beracun ini mendaratkan seorang pemuda di rumah sakit
Google mengembangkan alat AI untuk membantu jurnalis di…
ChatGPT tidak lebih dari alat chatbot, yang, melalui kecerdasan buatan, berspesialisasi dalam dialog. Alat ini dibuat oleh Philip Wang dan telah menyesuaikan bahasa, dengan penyatuan model teknik pembelajaran yang diawasi dan diperkuat dengan umpan balik manusia (RLHF) dan model yang digunakan oleh Google, Telapak.
Alat ini memiliki versi open source yang dirilis pada akhir 2022. Versi ini adalah spesies generik, dan karenanya juga dapat menjalankan fungsi ChatGPT resmi seperti draf email, saran kode komputer, dan teks akademisi.
Versi ChatGPT yang dirilis
Saat menggabungkan dua teknik, RLHF dan PaLM, model membutuhkan pelatihan, yang sayangnya tidak tersedia dalam versi umum. Oleh karena itu, setiap orang yang menganut kode terbuka ini harus melatih kecerdasan buatan di komputernya sendiri.
Masalah besarnya adalah untuk itu, diperlukan Perangkat Keras yang sangat kuat, lagipula untuk melatih a kecerdasan buatan namun, memproses permintaan yang akan datang bukan untuk semua orang.
Bagaimana cara melatih kecerdasan buatan ini?
Templatnya adalah versi ChatGPT yang hampir sama, yang merupakan alat kata, dan karenanya, perlu disajikan dengan banyak contoh, seperti posting di jejaring sosial, berita yang diterbitkan, dan e-book dari semua jenis.
Selain itu, teknik yang digunakan dalam sistem, RLHF, menawarkan respons dalam jumlah besar untuk setiap perintah manusia, yang berarti bahwa manusia sangat penting dalam proses mengklasifikasikan jawaban dalam semacam Pemeringkatan, sehingga sistem mempelajari cara terbaik untuk untuk merespon.
Semua ini akhirnya menjadi sangat mahal dan karena itu tidak semua orang bisa memilikinya. Satu perusahaan menghitung bahwa melatih model dengan 1,5 miliar parameter menghabiskan biaya hingga $1,6 juta. Dan untuk membuat sistem yang benar-benar bagus, dibutuhkan lebih dari itu, model Google PaLM, misalnya, menggunakan sekitar 540 miliar parameter.