وقتشه در مورد حریم خصوصی هوش مصنوعی صحبت کنیم.

دیپ‌سیک تنها شرکت هوش مصنوعی نیست که می‌تواند از داده‌های کاربر سوءاستفاده کند.

دقیقاً یک هفته از زمانی که رقیب چت‌جی‌پی‌تی دنیای هوش مصنوعی را شگفت‌زده کرد، می‌گذرد.

دیپ‌سیک، یک شرکت مستقر در چین، مدل R1 خود را عرضه کرد و ناگهان در مرکز توجه دنیای هوش مصنوعی قرار گرفت – و دلیل خوبی هم دارد.

مدل R1 دیپ‌سیک، علاوه بر اینکه ظاهراً به اندازه مدل o1 چت‌جی‌پی‌تی OpenAI پیچیده است، رایگان است. بله، درست است… صفر دلار.

این پیشنهاد، همراه با این واقعیت که ظاهراً با کسری از هزینه سایر LLMهای پر زرق و برق توسعه یافته است، موجی را در دنیای فناوری، به ویژه از جنبه مالی، ایجاد کرده است.

فقط در یک روز، Nividia شاهد کاهش ۶۰۰ میلیارد دلاری از ارزش بازار خود بود که بزرگترین زیان یک روزه در تاریخ بازار را رقم زد – این کمتر از یک موج و بیشتر شبیه یک سونامی است.

و در حالی که همه اینها چشمگیر است، دیپ‌سیک ممکن است تأثیر ناخواسته دیگری داشته باشد که به همان اندازه بزرگ است و تقریباً هیچ ارتباطی با بازار سهام ندارد.

مشکل تیک‌تاک

در حالی که توانایی و قیمت دیپ‌سیک بر گفتگوها مسلط بوده است، موضوع دیگری نیز وجود دارد که برای این شرکت به مراتب کمتر خوشایند است – حریم خصوصی.

ثانیاً، بین یک شرکت خصوصی و دولت در چین تفاوت چندانی وجود ندارد، که این سؤال را مطرح می‌کند که داده‌های صرفاً کاربر چگونه می‌توانند مورد استفاده قرار گیرند.

این بحث برای روز دیگری است. با این حال، برای دیدن اینکه چگونه یک دولت بالقوه متخاصم می‌تواند از انبوه داده‌های عظیم برای اهدافی که به نفع آمریکایی‌ها نیست، استفاده کند، نیازی به برون‌یابی زیادی نیست.

و از بسیاری جهات، هیچ یک از اینها تعجب آور نیست. مطمئناً، ورود یک شرکت غیرآمریکایی و از بین بردن ارزش غولی مانند Nvidia موج‌هایی ایجاد خواهد کرد، و، مطمئناً، این موضوع باعث ایجاد تردید خواهد شد.

اما آنچه که من جالب‌تر می‌دانم، نه آنچه دیپ‌سیک در مورد یک شرکت هوش مصنوعی چینی می‌گوید، بلکه در مورد هوش مصنوعی به طور کلی است.

لحظه‌ای برای حریم خصوصی هوش مصنوعی

مدت زیادی طول نکشید تا R1 دیپ‌سیک جنجال به پا کند.

تنها یک روز پس از صعود آن به گفتگوی عمومی، بلومبرگ و فایننشال تایمز گزارش دادند که مایکروسافت و OpenAI در حال بررسی این موضوع هستند که آیا دیپ‌سیک از روش‌های کمتر شرافتمندانه برای آموزش R1 استفاده کرده است یا خیر.

بلومبرگ گزارش می‌دهد:

“به گفته افرادی آشنا به این موضوع، مایکروسافت و OpenAI در حال بررسی این موضوع هستند که آیا داده‌های خروجی از فناوری OpenAI به طور غیرمجاز توسط گروهی مرتبط با استارت‌آپ هوش مصنوعی چینی دیپ‌سیک به دست آمده است یا خیر.”

به‌طور طبیعی، به نظر می‌رسد که OpenAI کمتر از این ایده که دیپ‌سیک تکالیف این شرکت را برای ساخت مدل R1 خود کپی کرده است، مشتاق است. همانطور که بسیاری اشاره کرده‌اند، این بیزاری ریاکاری آشکار است.

OpenAI بدنامانه الگوریتم خود را با استفاده از مطالب دارای حق چاپ و سایر دارایی‌های فکری افراد دیگر آموزش می‌دهد. در حال حاضر در یک نبرد حقوقی با نیویورک تایمز بر سر استفاده از محتوای این روزنامه برای آموزش ChatGPT است.

این حتی به نگرانی‌های مربوط به حریم خصوصی در مورد هر داده‌ای که OpenAI در مورد ورودی‌های کاربران خود یا هر کسی که برای استفاده از پلتفرم آن ثبت‌نام می‌کند، ذخیره می‌کند، نمی‌پردازد.

و بین داده‌های جمع‌آوری‌شده توسط یک شرکت خصوصی در ایالات متحده و یک شرکت در چین، جایی که خطوط بین نهادهای خصوصی و دولتی فوق‌العاده مبهم است، تمایزی وجود دارد. با این حال، همه اینها تقریباً بی‌ربط است زیرا دیپ‌سیک، چه قصد داشته باشد یا نه، باعث می‌شود ما در مورد حریم خصوصی هوش مصنوعی صحبت کنیم.

فرصتی برای اصلاح امور

هر پلتفرم دیجیتال جدیدی دارای برخی از مشکلات حریم خصوصی است. ظهور رسانه‌های اجتماعی، دستیاران صوتی و تجارت الکترونیک را در نظر بگیرید.

با این حال، تفاوت بین این پلتفرم‌ها و پلتفرم‌های هوش مصنوعی ایجاد شده قبل از ما این است که اکنون سال‌ها تاریخ داریم که می‌توانیم از آنها استفاده کنیم. این بدان معناست، حداقل از نظر تئوری، که اوضاع می‌تواند متفاوت باشد.

من می‌گویم از نظر تئوری زیرا برای محافظت از حریم خصوصی خود، تاریخ می‌گوید که باید برای آن بجنگید. برای مثال، دستیاران صوتی مانند الکسا، سیری یا گوگل اسیستانت تا زمانی که رسوایی‌هایی در مورد برنامه‌های ضبط که ناخواسته مکالمات حساس را ضبط می‌کردند، ظاهر نشدند، به حالت انتخاب (opt-in) درنیامدند.

پس از افشای جزئیات این برنامه‌ها توسط افشاگران، غول‌های فناوری به سرعت آنها را پس گرفتند یا حداقل به کاربران این امکان را دادند که از آنها انصراف دهند. ما هنوز به آنجا نرسیده‌ایم، اما لحظاتی مانند دیپ‌سیک ما را به قرار دادن حریم خصوصی روی نقشه نزدیک‌تر می‌کنند.

با این حال، احتمالاً باید راه سخت را یاد بگیریم. روز پنجشنبه، محققان امنیتی دریافتند که دیپ‌سیک میلیون‌ها خط گزارش را در یک پایگاه داده ناامن ذخیره می‌کند که بدون احراز هویت قابل دسترسی است. این اطلاعات می‌تواند از نظر تئوری به بازیگران بد اجازه دسترسی به سیستم‌های داخلی دیپ‌سیک را بدهد که خیلی خوب نیست.

اما اگر این اتفاق می‌تواند برای دیپ‌سیک بیفتد، می‌تواند برای هر کسی اتفاق بیفتد. بنابراین، واضح‌تر از همیشه است که زمان برای گفتگوی حریم خصوصی هوش مصنوعی اکنون است.

اینکه آیا این اتفاق می‌افتد یا خیر، کسی نمی‌داند، اما وقتی همه داده‌های ما در نهایت به دست کسی می‌رسد که رفاه کاربران را در نظر ندارد، حداقل می‌دانیم که باید آن را می‌دیدیم.

talahost.com

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *