Farih.co.id
Home Teknologi Mengapa ChatGPT-4 Sangat Lambat Dibandingkan dengan ChatGPT-3.5?

Mengapa ChatGPT-4 Sangat Lambat Dibandingkan dengan ChatGPT-3.5?

introducing gpt4 on smartphone screen feature

Dengan versi terbaru ChatGPT, GPT-4, yang dirilis pada Maret 2023, kini banyak yang bertanya-tanya mengapa sangat lambat dibandingkan dengan pendahulunya, GPT-3.5. Jadi, apa alasan utamanya di sini?


Mengapa ChatGPT-4 begitu lamban, dan haruskah Anda tetap menggunakan GPT-3.5 saja?


Apa itu ChatGPT-4?

ChatGPT-4 adalah model terbaru dari chatbot OpenAI, umumnya dikenal sebagai ChatGPT. ChatGPT didukung oleh kecerdasan buatan, memungkinkannya menjawab pertanyaan dan permintaan Anda jauh lebih baik daripada chatbots sebelumnya. ChatGPT menggunakan model bahasa besar yang ditenagai oleh GPT (Generative Pre-trained Transformer) untuk memberikan informasi dan konten kepada pengguna sekaligus dapat berkomunikasi.

ChatGPT memiliki berbagai kemampuan, membuatnya bermanfaat bagi jutaan orang. Misalnya, ChatGPT dapat menulis cerita, membuat lelucon, menerjemahkan teks, mengedukasi pengguna, dan lainnya. Meskipun ChatGPT juga dapat digunakan untuk tindakan yang lebih terlarang, seperti pembuatan malware, keserbagunaannya agak revolusioner.

Model GPT-4 ChatGPT dirilis pada 14 Maret 2023. Versi ChatGPT ini dirancang untuk lebih memahami bahasa emosional melalui teks sekaligus lebih memahami berbagai dialek bahasa dan pemrosesan gambar. GPT-4 juga dapat melakukan percakapan lebih lama dan secara efektif merespons permintaan pengguna yang lebih lama.

Selain itu, parameter GPT-4 sebagian besar melebihi parameter GPT-3.5. Parameter ChatGPT menentukan bagaimana AI memproses dan merespons informasi. Singkatnya, parameter menentukan keterampilan yang dimiliki chatbot untuk berinteraksi dengan pengguna. Sementara GPT-3.5 memiliki 175 miliar parameter, GPT-4 memiliki 100 triliun hingga 170 triliun yang luar biasa (dikabarkan—OpenAI belum mengonfirmasi angka ini).

Itu adalah OpenAI’s GPT-3.5 yang digunakan untuk menggerakkan ChatGPT, yang sekarang menjadi chatbot AI paling populer di dunia. Jadi, GPT-3.5 telah membuat tanda yang tak terbantahkan di dunia AI. Tetapi hal-hal selalu berkembang di industri teknologi, jadi tidak mengherankan jika GPT-3.5 kini memiliki penerus di GPT-4.

Namun, GPT-4 sama sekali tidak sempurna. Nyatanya, waktu respons GPT-4 yang lama menyebabkan kehebohan. Jadi mari kita lihat masalah ini dan mengapa itu bisa terjadi.

ChatGPT-4 Lambat

memuat teks dan simbol batang di dinding eksterior hitam

Banyak yang memperhatikan setelah rilis GPT-4 bahwa chatbot baru OpenAI sangat lambat. Ini membuat banyak pengguna frustrasi, karena GPT-4 dimaksudkan untuk menjadi langkah maju dari GPT-3.5, bukan mundur. Akibatnya, pengguna GPT-4 menggunakan platform online, seperti Reddit dan dewan komunitas OpenAI, untuk membahas masalah tersebut.

Pada Forum Komunitas OpenAI, sejumlah pengguna telah menyampaikan frustrasi penundaan GPT-4 mereka. Seorang pengguna menyatakan bahwa GPT-4 “sangat lambat” pada akhirnya dan bahkan permintaan kecil yang dibuat ke chatbot mengakibatkan penundaan yang sangat lama lebih dari 30 detik.

Pengguna lain dengan cepat berbagi pengalaman mereka dengan GPT-4, dengan satu komentar di bawah postingan bahwa “panggilan yang sama dengan data yang sama dapat memakan waktu hingga 4 kali lebih lambat dari 3,5 turbo.”

Di tempat lain Posting Forum Komunitas OpenAI, seorang pengguna berkomentar bahwa permintaan mereka kadang-kadang bertemu dengan pesan “kesalahan dalam aliran tubuh”, sehingga tidak ada tanggapan. Di utas yang sama, orang lain menyatakan bahwa mereka tidak dapat membuat GPT-4 “berhasil merespons dengan skrip lengkap”. Pengguna lain berkomentar bahwa mereka terus mengalami kesalahan jaringan saat mencoba menggunakan GPT-4.

Dengan penundaan dan respons yang gagal atau setengah matang, tampaknya GPT-4 dipenuhi dengan masalah yang dengan cepat membuat pengguna kecewa.

Jadi mengapa, tepatnya, ini terjadi? Apakah ada yang salah dengan GPT-4?

Mengapa GPT-4 Lambat Dibandingkan dengan GPT-3.5?

Dalam posting Forum Komunitas OpenAI yang dirujuk di atas, satu pengguna menjawab bahwa penundaan itu disebabkan oleh “masalah saat ini dengan seluruh infrastruktur yang berlebihan”, menambahkan bahwa ada tantangan yang ditimbulkan dalam “menangani skalabilitas dalam jangka waktu yang singkat dengan popularitas ini dan jumlah pengguna obrolan dan API.”

Di sebuah Posting Reddit diunggah di subreddit r/singularity, pengguna memaparkan beberapa kemungkinan alasan lambatnya GPT-4, dimulai dengan ukuran konteks yang lebih besar. Dalam ekosistem GPT, ukuran konteks mengacu pada seberapa banyak informasi yang dapat diproses oleh versi chatbot tertentu dan kemudian menghasilkan informasi. Sementara ukuran konteks GPT-3.5 adalah 4K, ukuran konteks GPT-4 dua kali lipat. Jadi, memiliki ukuran konteks 8K mungkin berdampak pada kecepatan keseluruhan GPT-4.

Penulis Reddit juga menyarankan bahwa peningkatan kemampuan kemudi dan kontrol GPT-4 dapat berperan dalam waktu pemrosesan chatbot. Di sini, penulis menyatakan bahwa GPT-4 lebih mampu mengarahkan dan mengendalikan halusinasi dan bahasa yang tidak pantas mungkin menjadi penyebabnya, karena fitur ini menambah langkah tambahan pada metode pemrosesan informasi GPT-4.

Selain itu, diusulkan agar kemampuan GPT-4 untuk memproses gambar dapat memperlambat segalanya. Fitur yang berguna ini disukai oleh banyak orang, tetapi bisa datang dengan tangkapan. Mengingat bahwa GPT-4 dikabarkan membutuhkan waktu 10-20 detik untuk memproses gambar yang disediakan, ada kemungkinan bahwa komponen ini memperpanjang waktu respons (meskipun ini tidak menjelaskan penundaan yang dialami oleh pengguna yang hanya menyediakan perintah teks).

Pengguna lain berpendapat bahwa kebaruan ChatGPT-4 memainkan peran besar dalam penundaan ini. Dengan kata lain, beberapa orang berpikir bahwa chatbot terbaru OpenAI perlu mengalami beberapa kesulitan sebelum semua kekurangan dapat diperbaiki.

Tetapi alasan terbesar GPT-4 lambat adalah jumlah parameter yang dapat dipanggil GPT-4 dibandingkan GPT-3.5. Peningkatan parameter yang fenomenal berarti model GPT yang lebih baru membutuhkan waktu lebih lama untuk memproses informasi dan merespons secara akurat. Anda mendapatkan jawaban yang lebih baik dengan kerumitan yang meningkat, tetapi untuk sampai ke sana membutuhkan waktu lebih lama.

Haruskah Anda Memilih GPT-3.5 Daripada GPT-4?

grafik digital logo openai pada tab kaca

Jadi, dengan mempertimbangkan masalah ini, sebaiknya Anda menggunakan GPT-3.5 atau GPT-4?

Pada saat penulisan, sepertinya GPT-3.5 adalah opsi yang lebih cepat daripada GPT-4. Begitu banyak pengguna yang mengalami penundaan sehingga kemungkinan besar masalah waktu hadir di seluruh papan, tidak hanya dengan beberapa individu. Jadi, jika ChatGPT-3.5 saat ini memenuhi semua harapan Anda, dan Anda tidak ingin menunggu tanggapan untuk mendapatkan fitur tambahan, sebaiknya tetap menggunakan versi ini untuk saat ini.

Namun, Anda harus mencatat bahwa GPT-4 bukan hanya GPT-3.5 tetapi lebih lambat. Chatbot OpenAI versi ini memiliki banyak keunggulan dibandingkan pendahulunya. Jika Anda mencari chatbot AI yang lebih canggih dan tidak keberatan menunggu tanggapan lebih lama, mungkin ada baiknya beralih dari GPT-3.5 ke GPT-4.

Seiring waktu, penundaan GPT-4 dapat dikurangi atau diselesaikan seluruhnya, jadi kesabaran bisa menjadi kebajikan di sini. Apakah Anda mencoba beralih ke GPT-4 sekarang atau menunggu sedikit lebih lama untuk melihat bagaimana hal-hal berjalan dengan versi ini, Anda masih bisa mendapatkan banyak dari chatbot kecil yang bagus dari OpenAI.

GPT-4 Lebih Canggih tapi Ada Lag

Meskipun GPT-4 memiliki banyak kemampuan lanjutan dibandingkan GPT-3.5, penundaan dan kesalahan responsnya yang signifikan membuatnya tidak dapat digunakan oleh beberapa orang. Masalah-masalah ini mungkin dapat diselesaikan dalam waktu dekat, namun untuk saat ini, GPT-4 tentunya memiliki beberapa kendala yang harus diatasi sebelum dapat diterima dalam skala yang lebih luas.

Comment
Share:

Leave a Reply

Your email address will not be published. Required fields are marked *

Ad