Model AI R1-0528 DeepSeek: Benarkah Telah Dilatih dengan Data dari Google Gemini?
DeepSeek baru-baru ini merilis versi terbaru model AI reasoning R1 yang mampu tampil baik dalam sejumlah uji coba matematika dan coding. Meskipun DeepSeek Tidak mengungkapkan sumber data yang digunakan untuk melatih model ini, beberapa peneliti AI berspekulasi bahwa setidaknya sebagian berasal dari keluarga AI Google Gemini. Sam Paech, seorang pengembang berbasis di Melbourne yang menciptakan evaluasi "kecerdasan emosional" untuk AI, mengklaim memiliki bukti bahwa model terbaru DeepSeek dilatih dengan output dari Gemini. Pengembang lain juga mencatat bahwa "pikiran" yang dihasilkan oleh model DeepSeek saat bekerja terhadap sebuah kesimpulan, terlihat mirip dengan jejak Gemini.
Dugaan pelatihan DeepSeek dengan data dari rival AI sebelumnya telah muncul dalam beberapa kesempatan. Pada bulan Desember, pengembang mengamati bahwa model DeepSeek V3 sering kali mengidentifikasi dirinya sebagai ChatGPT, platform chatbot AI dari OpenAI, menunjukkan kemungkinan telah dilatih pada log obrolan ChatGPT. OpenAI sendiri telah menemukan bukti yang menghubungkan DeepSeek dengan penggunaan distilasi dalam pelatihan model AI, sebuah teknik yang mengextrak data dari model yang lebih besar dan lebih mampu.
Distilasi bukanlah praktek yang jarang, tetapi aturan layanan OpenAI melarang pelanggan menggunakan output model perusahaan tersebut untuk membangun AI pesaing. Meski begitu, semakin sulit bagi perusahaan AI untuk menyaring output dari dataset pelatihan karena adanya "kontaminasi" AI di web terbuka. Menurut para ahli AI, tidak ada hal yang mustahil bagi DeepSeek untuk melatih data dari Google Gemini, mengingat keterbatasan GPU dan kekayaan perusahaan tersebut.
Sebagai upaya mencegah distilasi, perusahaan AI telah meningkatkan langkah-langkah keamanan mereka. OpenAI misalnya, kini meminta organisasi untuk menyelesaikan proses verifikasi ID untuk mengakses model-model canggih tertentu. Google juga telah mulai "meringkas" jejak yang dihasilkan oleh model yang tersedia melalui platform pengembang AI Studio-nya, sedangkan Anthropic menyusul langkah tersebut untuk melindungi keunggulan kompetitifnya.
Dengan semakin kompleksnya industri AI, pelanggaran aturan dan persaingan yang tidak sehat semakin sering terjadi. Namun, langkah-langkah keamanan yang diambil oleh perusahaan-perusahaan AI menjadi penting untuk menjaga integritas data pelatihan dan melindungi keunggulan kompetitif mereka. Sebuah langkah ke depan yang positif menuju standar etika yang lebih tinggi dalam pengembangan teknologi AI.
Sumber inspirasi: TechCrunch
powered by jamterbang.com