دیپسیک تنها شرکت هوش مصنوعی نیست که میتواند از دادههای کاربر سوءاستفاده کند.
دقیقاً یک هفته از زمانی که رقیب چتجیپیتی دنیای هوش مصنوعی را شگفتزده کرد، میگذرد.
دیپسیک، یک شرکت مستقر در چین، مدل R1 خود را عرضه کرد و ناگهان در مرکز توجه دنیای هوش مصنوعی قرار گرفت – و دلیل خوبی هم دارد.
مدل R1 دیپسیک، علاوه بر اینکه ظاهراً به اندازه مدل o1 چتجیپیتی OpenAI پیچیده است، رایگان است. بله، درست است… صفر دلار.
این پیشنهاد، همراه با این واقعیت که ظاهراً با کسری از هزینه سایر LLMهای پر زرق و برق توسعه یافته است، موجی را در دنیای فناوری، به ویژه از جنبه مالی، ایجاد کرده است.
فقط در یک روز، Nividia شاهد کاهش ۶۰۰ میلیارد دلاری از ارزش بازار خود بود که بزرگترین زیان یک روزه در تاریخ بازار را رقم زد – این کمتر از یک موج و بیشتر شبیه یک سونامی است.
و در حالی که همه اینها چشمگیر است، دیپسیک ممکن است تأثیر ناخواسته دیگری داشته باشد که به همان اندازه بزرگ است و تقریباً هیچ ارتباطی با بازار سهام ندارد.
مشکل تیکتاک
در حالی که توانایی و قیمت دیپسیک بر گفتگوها مسلط بوده است، موضوع دیگری نیز وجود دارد که برای این شرکت به مراتب کمتر خوشایند است – حریم خصوصی.
ثانیاً، بین یک شرکت خصوصی و دولت در چین تفاوت چندانی وجود ندارد، که این سؤال را مطرح میکند که دادههای صرفاً کاربر چگونه میتوانند مورد استفاده قرار گیرند.
این بحث برای روز دیگری است. با این حال، برای دیدن اینکه چگونه یک دولت بالقوه متخاصم میتواند از انبوه دادههای عظیم برای اهدافی که به نفع آمریکاییها نیست، استفاده کند، نیازی به برونیابی زیادی نیست.
و از بسیاری جهات، هیچ یک از اینها تعجب آور نیست. مطمئناً، ورود یک شرکت غیرآمریکایی و از بین بردن ارزش غولی مانند Nvidia موجهایی ایجاد خواهد کرد، و، مطمئناً، این موضوع باعث ایجاد تردید خواهد شد.
اما آنچه که من جالبتر میدانم، نه آنچه دیپسیک در مورد یک شرکت هوش مصنوعی چینی میگوید، بلکه در مورد هوش مصنوعی به طور کلی است.
لحظهای برای حریم خصوصی هوش مصنوعی
مدت زیادی طول نکشید تا R1 دیپسیک جنجال به پا کند.
تنها یک روز پس از صعود آن به گفتگوی عمومی، بلومبرگ و فایننشال تایمز گزارش دادند که مایکروسافت و OpenAI در حال بررسی این موضوع هستند که آیا دیپسیک از روشهای کمتر شرافتمندانه برای آموزش R1 استفاده کرده است یا خیر.
بلومبرگ گزارش میدهد:
“به گفته افرادی آشنا به این موضوع، مایکروسافت و OpenAI در حال بررسی این موضوع هستند که آیا دادههای خروجی از فناوری OpenAI به طور غیرمجاز توسط گروهی مرتبط با استارتآپ هوش مصنوعی چینی دیپسیک به دست آمده است یا خیر.”
بهطور طبیعی، به نظر میرسد که OpenAI کمتر از این ایده که دیپسیک تکالیف این شرکت را برای ساخت مدل R1 خود کپی کرده است، مشتاق است. همانطور که بسیاری اشاره کردهاند، این بیزاری ریاکاری آشکار است.
OpenAI بدنامانه الگوریتم خود را با استفاده از مطالب دارای حق چاپ و سایر داراییهای فکری افراد دیگر آموزش میدهد. در حال حاضر در یک نبرد حقوقی با نیویورک تایمز بر سر استفاده از محتوای این روزنامه برای آموزش ChatGPT است.
این حتی به نگرانیهای مربوط به حریم خصوصی در مورد هر دادهای که OpenAI در مورد ورودیهای کاربران خود یا هر کسی که برای استفاده از پلتفرم آن ثبتنام میکند، ذخیره میکند، نمیپردازد.
و بین دادههای جمعآوریشده توسط یک شرکت خصوصی در ایالات متحده و یک شرکت در چین، جایی که خطوط بین نهادهای خصوصی و دولتی فوقالعاده مبهم است، تمایزی وجود دارد. با این حال، همه اینها تقریباً بیربط است زیرا دیپسیک، چه قصد داشته باشد یا نه، باعث میشود ما در مورد حریم خصوصی هوش مصنوعی صحبت کنیم.
فرصتی برای اصلاح امور
هر پلتفرم دیجیتال جدیدی دارای برخی از مشکلات حریم خصوصی است. ظهور رسانههای اجتماعی، دستیاران صوتی و تجارت الکترونیک را در نظر بگیرید.
با این حال، تفاوت بین این پلتفرمها و پلتفرمهای هوش مصنوعی ایجاد شده قبل از ما این است که اکنون سالها تاریخ داریم که میتوانیم از آنها استفاده کنیم. این بدان معناست، حداقل از نظر تئوری، که اوضاع میتواند متفاوت باشد.
من میگویم از نظر تئوری زیرا برای محافظت از حریم خصوصی خود، تاریخ میگوید که باید برای آن بجنگید. برای مثال، دستیاران صوتی مانند الکسا، سیری یا گوگل اسیستانت تا زمانی که رسواییهایی در مورد برنامههای ضبط که ناخواسته مکالمات حساس را ضبط میکردند، ظاهر نشدند، به حالت انتخاب (opt-in) درنیامدند.
پس از افشای جزئیات این برنامهها توسط افشاگران، غولهای فناوری به سرعت آنها را پس گرفتند یا حداقل به کاربران این امکان را دادند که از آنها انصراف دهند. ما هنوز به آنجا نرسیدهایم، اما لحظاتی مانند دیپسیک ما را به قرار دادن حریم خصوصی روی نقشه نزدیکتر میکنند.
با این حال، احتمالاً باید راه سخت را یاد بگیریم. روز پنجشنبه، محققان امنیتی دریافتند که دیپسیک میلیونها خط گزارش را در یک پایگاه داده ناامن ذخیره میکند که بدون احراز هویت قابل دسترسی است. این اطلاعات میتواند از نظر تئوری به بازیگران بد اجازه دسترسی به سیستمهای داخلی دیپسیک را بدهد که خیلی خوب نیست.
اما اگر این اتفاق میتواند برای دیپسیک بیفتد، میتواند برای هر کسی اتفاق بیفتد. بنابراین، واضحتر از همیشه است که زمان برای گفتگوی حریم خصوصی هوش مصنوعی اکنون است.
اینکه آیا این اتفاق میافتد یا خیر، کسی نمیداند، اما وقتی همه دادههای ما در نهایت به دست کسی میرسد که رفاه کاربران را در نظر ندارد، حداقل میدانیم که باید آن را میدیدیم.
Shortlink for this post: https://blog.talahost.com/?p=1776