POSPAPUA

Ikuti perkembangan terkini Indonesia di lapangan dengan berita berbasis fakta PosPapusa, cuplikan video eksklusif, foto, dan peta terbaru.

Untuk raksasa teknologi, AI seperti Bing dan Bard menimbulkan masalah pencarian bernilai miliaran dolar

Untuk raksasa teknologi, AI seperti Bing dan Bard menimbulkan masalah pencarian bernilai miliaran dolar

MOUNTAIN VIEW, California, 22 Februari (Reuters) – Ketika Alphabet Inc (GOOGL.O) melewati chatbot yang membantu menghapus $100 miliar dari nilai pasarnya, tantangan lain muncul dari upayanya untuk menambahkan AI generatif ke dalam popularitasnya. pencarian Google: biaya.

Para eksekutif di sektor teknologi berbicara tentang cara menjalankan AI seperti ChatGPT sambil mempertimbangkan biaya tinggi. Chatbot populer OpenAI, yang dapat membuat prosa dan menjawab pertanyaan pencarian, memiliki biaya komputasi yang “luar biasa” sebesar dua sen atau lebih per percakapan, kata Sam Altman, CEO startup, di Twitter.

Dalam sebuah wawancara, presiden Alphabet John Hennessy mengatakan kepada Reuters bahwa pertukaran dengan kecerdasan buatan yang dikenal sebagai model bahasa besar kemungkinan akan memakan biaya 10 kali lipat dari penelitian kata kunci standar, meskipun penyesuaian akan membantu mengurangi biaya dengan cepat.

Analis mengatakan bahwa bahkan dengan pendapatan dari iklan pencarian berbasis obrolan potensial, teknologi tersebut dapat masuk ke garis bawah Alphabet di Mountain View, California, dengan biaya tambahan beberapa miliar dolar. Pendapatan bersihnya akan menjadi sekitar $60 miliar pada tahun 2022.

Pembaruan terbaru

Lihat 2 cerita lainnya

Morgan Stanley memperkirakan bahwa 3,3 triliun permintaan pencarian Google tahun lalu menelan biaya masing-masing sekitar lima sen, angka yang akan meningkat tergantung pada berapa banyak teks yang harus dihasilkan oleh AI. Analis telah memperkirakan bahwa Google, misalnya, akan menghadapi peningkatan biaya sebesar $6 miliar pada tahun 2024 jika AI mirip ChatGPT akan menangani setengah dari pertanyaan yang diterimanya dengan jawaban 50 kata. Sepertinya Google tidak memerlukan chatbot untuk menangani pencarian navigasi untuk situs seperti Wikipedia.

Yang lain sampai pada tagihan serupa dengan cara berbeda. Misalnya, SemiAnalysis, sebuah perusahaan penelitian dan konsultasi yang berfokus pada teknologi chip, mengatakan menambahkan AI gaya ChatGPT ke pencarian dapat menelan biaya Alphabet $3 miliar, jumlah yang dibatasi oleh chip internal Google yang disebut Tensor Processing Units, atau TPU, di antara peningkatan lainnya.

READ  Formasi Mantap, R7 Racing Tech Seab Jeeprak Ballab Nacional!
Biaya AI atas Biaya Google AI

Apa yang membuat bentuk AI ini lebih mahal daripada penelitian tradisional adalah daya komputasi yang digunakan. Analis mengatakan AI bergantung pada chip bernilai miliaran dolar, biaya yang harus disebarkan selama masa manfaatnya selama beberapa tahun. Demikian pula, listrik menambah biaya dan tekanan pada perusahaan dengan target jejak karbon.

Proses memanipulasi kueri penelusuran yang didukung oleh AI dikenal sebagai “inferensi”, di mana “jaringan saraf” yang dimodelkan secara longgar pada biologi otak manusia menyimpulkan jawaban atas pertanyaan dari pelatihan sebelumnya.

Sebaliknya, dalam penelusuran tradisional, perayap web Google memindai Internet untuk menyusun indeks informasi. Saat pengguna mengetik kueri, Google menyajikan jawaban paling relevan yang disimpan dalam indeks.

“Ini biaya inferensi yang harus Anda turunkan,” kata Hennessey dari Alphabet kepada Reuters, menyebutnya “masalah dua tahun paling buruk.”

Alphabet berada di bawah tekanan untuk memenuhi tantangan meskipun ada biaya. Awal bulan ini, saingan Microsoft Corp (MSFT.O) mengadakan acara profil tinggi di kantor pusatnya di Redmond, Washington, untuk memamerkan rencana untuk memasukkan teknologi obrolan AI di mesin pencari Bing-nya, dengan eksekutif puncak menargetkan pangsa pencarian Google. pasar. 91%, menurut perkiraan serupa.

Sehari kemudian, Alphabet berbicara tentang rencana untuk meningkatkan mesin telusurnya, tetapi video promosi untuk chatbot AI-nya, Bard, menunjukkan bahwa sistem menjawab pertanyaan dengan tidak akurat, mengirimkan penurunan stok yang memangkas $100 miliar dari nilai pasarnya.

Belakangan, Microsoft berada di bawah pengawasan sendiri ketika AI-nya dilaporkan meluncurkan ancaman atau mengaku cinta untuk menguji pengguna, mendorong perusahaan untuk membatasi sesi obrolan panjang yang katanya “memprovokasi” jawaban yang tidak diinginkan.

CFO Microsoft Amy Hood mengatakan kepada analis bahwa keuntungan dari akuisisi pengguna dan pendapatan iklan melebihi biaya karena Bing baru diluncurkan ke jutaan konsumen. “Itu margin kotor tambahan bagi kami, bahkan dengan biaya layanan yang sedang kami diskusikan,” katanya.

READ  10 istilah Web 3.0 teratas yang harus diketahui oleh setiap penggemar teknologi
Logo Google LLC terlihat di Google Store Chelsea di Manhattan, New York City, AS, 17 November 2021. REUTERS/Andrew Kelly

Pesaing Google lainnya, CEO You.com Richard Socher, mengatakan menambahkan pengalaman obrolan AI serta aplikasi infografis, video, dan teknologi generatif lainnya meningkatkan biaya antara 30% dan 50%. “Teknologi semakin murah dalam skala besar dan dari waktu ke waktu,” katanya.

Sumber yang dekat dengan Google memperingatkan bahwa masih terlalu dini untuk mengatakan berapa biaya chatbot karena efisiensi dan kegunaan sangat bervariasi tergantung pada teknologi yang digunakan, dan kecerdasan buatan sudah mendukung produk seperti pencarian.

Membayar tagihan adalah salah satu dari dua alasan utama pencarian dan raksasa media sosial dengan miliaran pengguna belum meluncurkan chatbot AI dalam semalam, kata Paul Dougherty, chief technology officer Accenture.

“Yang pertama adalah akurasi, dan yang kedua adalah Anda harus mengukurnya dengan benar,” katanya.

Membuat matematika bekerja

Selama bertahun-tahun, para peneliti di Alphabet dan tempat lain telah mempelajari cara melatih dan menjalankan model bahasa besar dengan biaya lebih rendah.

Model yang lebih besar membutuhkan lebih banyak chip untuk inferensi dan karenanya lebih mahal. AI yang memukau konsumen dengan otoritasnya yang mirip manusia telah membengkak menjadi 175 miliar apa yang disebut parameter, atau nilai berbeda yang diperhitungkan algoritme, dari model OpenAI yang diperbarui di ChatGPT. Biayanya juga bervariasi bergantung pada panjang kueri pengguna, yang diukur dalam “token”, atau bagian kata.

Seorang eksekutif teknologi senior mengatakan kepada Reuters bahwa AI semacam itu masih terlalu mahal untuk diberikan kepada jutaan konsumen.

“Model-model ini sangat mahal, sehingga tingkat penemuan selanjutnya akan mengurangi biaya pelatihan model-model ini dan inferensi sehingga kami dapat menggunakannya di setiap aplikasi,” kata eksekutif tersebut tanpa menyebut nama.

Untuk saat ini, ilmuwan komputer di dalam OpenAI telah menemukan cara meningkatkan biaya inferensi melalui kode kompleks yang membuat chip berjalan lebih efisien, kata seseorang yang mengetahui upaya tersebut. Seorang juru bicara OpenAI tidak segera berkomentar.

READ  Data apa tentang Anda yang bisa diperoleh pemerintah dari perusahaan teknologi besar?

Masalah jangka panjangnya adalah bagaimana mengecilkan jumlah parameter dalam model AI 10 atau bahkan 100 kali, tanpa kehilangan akurasi.

“Bagaimana Anda dapat mengecualikan (parameter) secara paling efektif masih merupakan pertanyaan terbuka,” kata Naveen Rao, yang sebelumnya mengelola upaya chip AI Intel Corp. dan sekarang bekerja untuk menurunkan biaya komputasi AI melalui startupnya, MosaicML.

Sementara itu, beberapa telah mempertimbangkan untuk mengenakan biaya akses, seperti langganan OpenAI $20 per bulan untuk layanan ChatGPT yang lebih baik. Pakar teknologi juga mengatakan bahwa solusi alternatif adalah menerapkan model AI yang lebih kecil ke tugas yang lebih sederhana, yang sedang dieksplorasi oleh Alphabet.

Perusahaan mengatakan bulan ini bahwa versi “lebih kecil” dari teknologi AI LaMDA yang masif akan mendukung chatbot Bard, yang membutuhkan “daya komputasi yang jauh lebih sedikit, memungkinkan kami untuk menskalakan ke lebih banyak pengguna.”

Ketika ditanya tentang chatbots seperti ChatGPT dan Bard, Hennessy mengatakan pada konferensi yang disebut TechSurge minggu lalu bahwa model yang lebih fokus, daripada satu sistem yang melakukan segalanya, akan membantu “menjinakkan biaya”.

Dilaporkan oleh Jeffrey Dustin di Mountain View, CA dan Stephen Nelis di Sunnyvale, CA; Pelaporan tambahan oleh Greg Bensinger. Diedit oleh Kenneth Lee dan Claudia Parsons

Standar kami: Prinsip Kepercayaan Thomson Reuters.