• November 28, 2024
Anthropic yang didukung Alphabet merilis pesaing OpenAI bernama Claude

Anthropic yang didukung Alphabet merilis pesaing OpenAI bernama Claude

Ini adalah ringkasan yang dibuat oleh AI, yang mungkin memiliki kesalahan. Untuk konteksnya, selalu rujuk artikel selengkapnya.

Meskipun Claude dibuat untuk melakukan tugas serupa dengan ChatGPT, Anthropic mengatakan mereka berfokus pada produksi sistem AI yang cenderung menghasilkan konten yang menyinggung atau berbahaya.

Anthropic, sebuah perusahaan kecerdasan buatan yang didukung oleh Alphabet, pada hari Selasa, 14 Maret, merilis model bahasa utama yang bersaing langsung dengan penawaran dari OpenAI yang didukung Microsoft, pencipta ChatGPT.

Model bahasa besar adalah algoritme yang diajarkan untuk menghasilkan teks dengan memberikan teks pelatihan yang ditulis manusia. Dalam beberapa tahun terakhir, para peneliti telah mencapai hasil yang jauh lebih mirip manusia dengan model-model tersebut dengan secara drastis meningkatkan jumlah data yang diberikan kepada mereka dan jumlah daya komputasi yang digunakan untuk melatih mereka.

Claude, begitulah model Anthropic dikenaldibuat untuk melakukan tugas serupa dengan ChatGPT dengan merespons perintah dengan keluaran teks mirip manusia, baik dalam bentuk pengeditan kontrak hukum atau penulisan kode komputer.

Namun Anthropic, yang didirikan bersama oleh saudara kandung Dario dan Daniela Amodei, yang keduanya mantan eksekutif OpenAI, telah menempatkan fokus pada produksi sistem AI yang cenderung menghasilkan konten yang menyinggung atau berbahaya, seperti instruksi untuk meretas komputer atau membuat senjata, dibandingkan sistem lain.

Kekhawatiran keamanan AI menjadi menonjol bulan lalu setelah Microsoft mengatakan akan membatasi pertanyaan pada mesin pencari Bing baru yang didukung obrolan setelah kolumnis New York Times menemukan chatbot tersebut menampilkan alter ego dan respons yang mengganggu selama percakapan yang lama.

Masalah keamanan telah menjadi masalah pelik bagi perusahaan teknologi karena chatbots tidak memahami arti kata yang dihasilkannya.

Untuk menghindari pembuatan konten berbahaya, pembuat chatbot sering kali memprogramnya untuk menghindari bidang subjek tertentu sama sekali. Namun hal ini membuat chatbots rentan terhadap apa yang disebut “rekayasa cepat”, di mana pengguna berupaya mengatasi keterbatasan.

Antropies mengambil pendekatan berbeda, memberi Claude serangkaian prinsip sambil “melatih” model dengan data teks dalam jumlah besar. Daripada mencoba menghindari topik yang berpotensi berbahaya, Claude merancang untuk menjelaskan keberatannya berdasarkan prinsip-prinsipnya.

“Tidak ada yang menakutkan. Itulah salah satu alasan kami menyukai Anthropic,” Richard Robinson, CEO Robin AI, sebuah startup di London yang menggunakan AI untuk menganalisis kontrak hukum yang Anthropic berikan akses awal kepada Claude, mengatakan dalam sebuah wawancara dengan Reuters.

Robinson mengatakan perusahaannya mencoba menerapkan teknologi OpenAI pada kontrak, namun menemukan bahwa Claude lebih baik dalam memahami bahasa hukum yang padat dan kecil kemungkinannya menimbulkan reaksi aneh.

“Tantangannya adalah membuat mereka melonggarkan pembatasannya untuk penggunaan yang benar-benar dapat diterima,” kata Robinson. – Rappler.com

sbobet mobile