Huruf “o” pada GPT-4o berarti omni. Model baru ini memungkinkan ChatGPT menangani 50 bahasa dengan lebih cepat dan lebih baik. Model ini juga akan tersedia melalui API OpenAI, yang memungkinkan para pengembang untuk mulai membangun aplikasi dengan menggunakan model baru ini segera.
Murati juga menyebutkan bahwa GPT-4o dua kali lebih cepat dan setengah biaya dari GPT-4 Turbo.
Kemampuan Audio dan Video GPT-4o
Tim OpenAI mendemonstrasikan kemampuan audio model baru ini, seperti membantu menenangkan seseorang sebelum berbicara di depan umum. Peneliti OpenAI, Mark Chen, mengatakan model ini mampu “mendeteksi emosi Anda,” dan juga dapat menangani interupsi dari pengguna. Tim juga memintanya untuk menganalisis ekspresi wajah pengguna untuk mengomentari emosi yang mungkin mereka rasakan.
“Sapa, ada apa? Bagaimana saya bisa membuat hari Anda lebih cerah hari ini?” kata mode audio ChatGPT ketika seorang pengguna menyapanya.
Penggunaan untuk Berbagai Bahasa
Perusahaan berencana menguji Mode Suara dalam beberapa minggu mendatang, dengan akses awal untuk pelanggan berbayar ChatGPT Plus. OpenAI juga mengatakan model baru ini dapat merespons permintaan audio pengguna “dalam waktu 232 milidetik, dengan rata-rata 320 milidetik, yang serupa dengan waktu respons manusia dalam percakapan.”