احدی حق دسترسی به اطلاعات مردم در پیام رسان های داخلی را ندارد
تاریخ انتشار: ۶ اردیبهشت ۱۴۰۲ | کد خبر: ۳۷۶۱۷۳۱۵
به گزارش خبرگزاری صدا و سیما به نقل از مرکز روابط عمومی و اطلاع رسانی وزارت ارتباطات و فناوری اطلاعات، عیسی زارع پور وزیر ارتباطات و فناوری اطلاعات امروز (چهارشنبه) در حاشیه برگزاری جلسه هیات دولت در جمع خبرنگاران گفت: بر اساس فتوای مقام معظم رهبری، تعرض به امنیت و حریم مردم در پیامرسانهای داخلی «حرام شرعی» است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
وی افزود: به هیچ وجه احدی حق دسترسی به اطلاعات مردم در پیام رسان های داخلی را ندارد و اطلاعات مردم در پیام رسانهای داخلی مشمول اصل 25 قانون اساسی است و خیال مردم راحت باشد.
زارع پور با اشاره به رونمایی رسمی از اتصال متقابل پیام رسان های بومی در روز گذشته، تصریح کرد: دیروز به شکل رسمی اتصال متقابل پیام رسان های ایرانی رونمایی شد که در فاز نخست چهار پیام رسان ایتا، بله، گپ و آیگپ به این طرح پیوستند و مردم عزیزمان از این پس برای ارتباط با هموطنان عزیز دیگر نیاز به نصب انواع پیامرسان های ایرانی را ندارند و هر پیام رسانی که مردم عزیزمان بر اساس سلیقه خود دوست دارند، می توانند روی گوشی خود نصب کنند و با بقیه پیامرسان های داخلی در ارتباط باشند.
وزیر ارتباطات خاطر نشان کرد: در فاز نخست، ارسال پیام و فایل پیش بینی شده و در گام های بعدی امکان تشکیل گروه بین کاربران پیام رسان های مختلف و تماس صوتی و تصویری نیز پیش بینی شده است.
وی با اشاره به شبهاتی که از دیروز مبنی بر اینکه اتصال متقابل پیام رسان ها باعث از بین رفتن رقابت و مزیت آنها می شود، توضیح داد: این کار باعث رقابت بیشتر میان پیام رسان ها می شود که بتوانند سهم بیشتری از بازار را بگیرند چراکه امکانات آنها با یکدیگر متفاوت است و این مسیری است که در دنیا نیز دنبال می شود.
زارع پور با اشاره به وضع قانون DMA در اتحادیه اروپا تصریح کرد: اتحادیه اروپا، قانون بازار دیجیتال را وضع کرده که روح آن قانون رفع انحصار تمام پیام رسان ها و شبکه های اجتماعی فعال در اروپاست و از ابتدای سال 2024 اجباری می شود که بر اساس آن تمام پیامرسان ها و شبکه های اجتماعی فعال در اروپا موظف به برقراری اینترکانکشن هستند و یعنی یک پیامرسانی که حتی هزار کاربر داشته باشد باید به پیام رسان هایی چون واتساپ و تلگرام اتصال متقابل داشته باشد.
وزیر ارتباطات با بیان اینکه در این قانون جرایم سختی برای عدم اجرای برقراری اتصال متقابل وضع شده و این جهت گیری در همه کشورهای دنیا دنبال می شود، گفت: این مایه افتخار است که در جمهوری اسلامی ایران با تلاش متخصصان و نخبگان و شرکت هایی که در پیامرسان های داخلی مشغول به فعالیت هستند، با راهبری سازمان فناوری اطلاعات اتصال متقابل پیام رسان های ایرانی انجام شد و مردم عزیزمان می توانند از این قابلیت جدید استفاده کنند.
منبع: خبرگزاری صدا و سیما
کلیدواژه: وزارت ارتباطات و فناوری اطلاعات اتصال متقابل پیام رسان ها مردم در پیام رسان رسان های داخلی پیام رسان پیامرسان ها بر اساس
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.iribnews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری صدا و سیما» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۶۱۷۳۱۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری کنیم؟
هر محتوایی که در سطح اینترنت مشاهده میکنید، بهاحتمال زیاد جمعآوری شده و برای آموزش نسل کنونی هوش مصنوعی مولد مورد استفاده قرار گرفته است. مدلهای زبان بزرگ مثل ChatGPT و ابزارهای تولیدکنندهی تصویر با انبوهی از دادههای ما تغذیه میشوند. حتی اگر این دادهها برای ساخت چتبات بهکار نروند، میتوانند در ویژگیهای دیگر یادگیری ماشین استفاده شوند.
شرکتهای فناوری برای جمعآوری دادههایی که بهگفته خودشان برای خلق هوش مصنوعی مولد ضروری هستند، سرتاسر وب را با بیتوجهی به حقوق مؤلفان، قوانین کپیرایت و حریم خصوصی کاربران، مورد استفاده قرار دادهاند. شرکتهایی هم که انبوهی از اطلاعات کاربران را در اختیار دارند، بهدنبال سهمی از سود صنعت هوش مصنوعی هستند.
اگر شما هم نگران هستید که دادههایتان مورد استفادهی هوش مصنوعی قرار بگیرد، ما در این مقاله بهبررسی راهکارهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی میپردازیم.
پیشاز آنکه به روشهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم، بهتر است سطح انتظارات را در حد واقعبینانه نگهداریم. بسیاری از شرکتهای توسعهدهندهی هوش مصنوعی از مدتها قبل اقدام به جمعآوری گستردهی دادههای وب کردهاند؛ بنابر این، احتمالاً هر آنچه که تا امروز منتشر کردهاید، هماکنون در سیستمهای آنها وجود دارد. این شرکتها دربارهی اطلاعاتی که استخراج یا خریداری کردهاند، شفاف عمل نمیکنند و اطلاعات ما در این زمینه بسیار مبهم است.
شرکتها میتوانند فرایند انصراف از استفادهی دادهها برای آموزش هوش مصنوعی را پیچیده کنند. بسیاری از افراد دربارهی مجوزهایی که پذیرفتهاند یا نحوهی بهکارگیری دادهها، دید روشنی ندارند. این موضوع مربوطبه قبلاز زمانی است که به قوانین مختلف، مانند حمایت از حقوق مالکیت فکری و قوانین قدرتمند حفظ حریم خصوصی اروپا، توجه شود. فیسبوک، گوگل و شرکتهای دیگر، در اسناد مربوطبه حریم خصوصی خود ذکر کردهاند که شاید از دادههای شما برای آموزش هوش مصنوعی استفاده کنند.
فهرست زیر فقط شامل شرکتهایی میشود که درحالحاضر راهکاری برای منع دسترسی آنها به دادههای شخصی کاربران برای آموزش مدلهای هوش مصنوعی ارائه میدهند.
روش جلوگیری از دسترسی ابزارهای هوش مصنوعی به دادهها
ذخیرهسازی فایلها در سرویسهای ابری، مزایای زیادی دارد. اما این فایلها میتوانند برای مقاصد دیگر نیز مورد استفاده قرار بگیرند. براساس اسناد شرکتهایی مانند ادوبی و آمازون، دادههای ذخیرهشده در فضای ابری آنها، میتواند برای آموزش الگوریتمهای یادگیری ماشین بهکار رود.
گوگل جمنای
اگر از چتبات گوگل جمنای (Gemini) استفاده میکنید، باید بدانید کارشناسان انسانی برخی مکالمات شما را برای بررسی و بهبود مدل هوش مصنوعی بازبینی میکنند. بههر حال، میتوانید این دسترسی را لغو کنید. بدینمنظور جمنای را در مرورگر خود باز کرده، روی بخش Activity کلیک و سپس از منوی کشویی Turn Off را انتخاب کنید. در این قسمت، میتوانید صرفاً فعالیت جمنای را غیرفعال کنید و یا با انتخاب گزینهی Delete data، هم دسترسی را لغو کرده و هم اطلاعات مکالمات گذشته را پاک کنید.
نکتهی مهم اینکه با غیرفعالسازی دسترسی جمنای به دادههای شخصی خود، مکالمات آتی شما دیگر برای بازبینی دردسترس نخواهد بود، اما اطلاعات مکالمات قبلی که برای بررسی انتخاب شدهاند، همچنان تا سه سال نزد گوگل باقی خواهند ماند.
تنظیمات حریم خصوصی OpenAI ChatGPT
هنگام استفاده از چتباتها، ناخواسته اطلاعات شخصی زیادی را فاش میکنیم. OpenAI، بهعنوان توسعهدهندهی چتبات محبوب ChatGPT، به کاربران اختیاراتی برای کنترل دادههایشان میدهد. این اختیار شامل جلوگیری از استفاده از اطلاعات برای آموزش مدلهای هوش مصنوعی آینده میشود.
طبق صفحات راهنمای OpenAI، کاربران وب ChatGPT که حساب کاربری ندارند، باید به بخش تنظیمات (Settings) مراجعه و گزینهی Improve the model for everyone را غیرفعال کنند. اگر حساب کاربری دارید و ازطریق مرورگر وب وارد شدهاید، باید به بخشChatGPT بروید و سپس در مسیر Settings و Data Controls، گزینهی Chat History & Training را خاموش کنید. درصورتیکه از اپلیکیشنهای موبایل ChatGPT استفاده میکنید، به Settings مراجعه کرده و Data Controls را انتخاب کنید و درنهایت گزینهی Chat History & Training را خاموش کنید.
صفحات پشتیبانی OpenAI هشدار میدهند که تغییر تنظیمات دسترسی به دادههای شخصی در مرورگر یا دستگاه خاص، روی سایر مرورگرها یا دستگاههای شما همگامسازی نمیشود؛ بنابراین، باید اینکار را در هر جایی که از ChatGPT استفاده میکنید، انجام دهید.
فعالیتهای OpenAI فراتر از ChatGPT است. این استارتاپ برای ابزار تولید تصویر Dall-E 3 نیز فرمی در نظر گرفته است که به شما امکان میدهد با ارسال آن، تصاویر مورد نظر خود را از مجموعه دادههای آموزشی آینده حذف کنید. در این فرم باید نام، ایمیل، مالکیت حقنشر تصویر، جزئیات تصویر و اصل تصویر را آپلود کنید. OpenAI همچنین میگوید اگر حجم زیادی از تصاویر را بهصورت آنلاین میزبانی میکنید که نمیخواهید برای آموزش دادهها استفاده شوند، شاید اضافهکردن GPTBot به فایل robots.txt وبسایت محل میزبانی تصاویر، روش کارآمدتری باشد.
Perplexity
Perplexity استارتاپی است که با استفاده از هوش مصنوعی در جستوجوی وب و یافتن پاسخ سؤالات به کاربران کمک میکند. این ابزار مثل سایر نرمافزارهای مشابه، بهصورت پیشفرض رضایت شما برای استفاده از تعاملات و دادههایتان را در جهت بهبود هوش مصنوعی خود دریافت میکند. برای غیرفعالکردن این مورد، روی نام کاربری خود کلیک کنید، به بخش Account بروید و AI Data Retention را در حالت غیرفعال قرار دهید.
تنظیمات حریم خصوصی ادوبی
اگر از حساب کاربری شخصی ادوبی استفاده میکنید، غیرفعالکردن این قابلیت بهسادگی امکانپذیر است. بدینمنظور باید در صفحهی حریم خصوصی ادوبی به بخش Content analysis بروید و کلید مربوطه را خاموش کنید. برای حسابهای تجاری یا آموزشی، این امکان بهصورت مجزا برای تکتک کاربران وجود ندارد و برای غیرفعالسازی آن باید با مدیر سیستم تماس بگیرید.
صفحه تنظیمات حریم خصوصی وردپرس
وردپرس گزینهای برای جلوگیری از اشتراکگذاری دادهها با سرویسهای شخص ثالث دارد. برای فعال کردن این قابلیت، در پنل مدیریت وبسایت، روی Settings و بعد از آن General و سپس Privacy کلیک کرده و در نهایت تیک گزینهی Prevent third-party sharing را بزنید. سخنگوی Automattic میگوید: «ما درحال همکاری با خزندههای وب ازجمله Common Crawl هستیم تا جلوی دسترسی و فروش غیرمجاز محتوای کاربران را بگیریم.»
Grammarly
درحال حاضر، کاربران عادی گرمرلی (Grammarly) امکان لغو استفاده از دادههایشان را برای بهبود مدل یادگیری ماشین این سرویس ندارند. این امکان فقط برای حسابهای تجاری (Business Account) دردسترس است که بهصورت خودکار قابل مدیریت بوده و نیازی به درخواست مستقیم کاربر ندارد.
برای لغو دسترسی گرمرلی در حسابهای تجاری، به تنظیمات حساب کاربری (Account Settings) مراجعه، روی تب Data Settings کلیک و سپس گزینهی Product Improvement & Training را غیرفعال کنید. همچنین، حسابهای تجاری تحت مدیریت مانند حسابهای آموزشی و حسابهای خریداریشده ازطریق نمایندهی فروش گرمرلی، بهصورت خودکار از فرایند آموزش مدل هوش مصنوعی مستثنی هستند.
صفحه حریم خصوصی Quora
Quora ادعا میکند درحالحاضر از پاسخها، پستها یا نظرات کاربران برای آموزش هوش مصنوعی استفاده نمیکند. این شرکت همچنین هیچگونه دادهی کاربری را برای آموزش هوش مصنوعی بهفروش نمیرساند. بههر حال، Quora همچنان گزینهای برای انصراف از این موضوع در نظر گرفته است. برای اینکار، به صفحهی Settings بروید، روی Privacy کلیک و سپس Allow large language models to be trained on your content را غیرفعال کنید.
بهنوشتهی WIRED، امکان دارد Quora همچنان از برخی پستهای خاص برای آموزش مدلهای زبان بزرگ (LLM) استفاده کند. صفحات راهنمای این شرکت توضیح میدهند درصورتیکه به پاسخ تولیدشده با هوش مصنوعی، پاسخ دهید، شاید اطلاعات آن، برای آموزش هوش مصنوعی مورد استفاده قرار گیرد. این شرکت اشاره میکند که احتمال استخراج دادهها ازطرف شرکتهای متفرقه نیز وجود دارد.
Tumblr
شرکت Automattic، مالک وبسایتهای Tumblr و WordPress.com، اعلام کرده که با همکاری شرکتهای هوش مصنوعی قصد دارد از مجموعه دادههای عظیم و منحصربهفرد محتوای منتشر شده در پلتفرمهای خود برای آموزش هوش مصنوعی استفاده کند. سخنگوی این شرکت تأکید کرده است که ایمیلهای کاربران و محتوای خصوصی شامل این همکاری نخواهد شد.
درصورتیکه در Tumblr وبلاگ شخصی دارید، میتوانید با مراجعه به Settings، انتخاب وبلاگ، کلیک روی آیکون چرخدنده، رفتن به بخش Visibility و فعالکردن گزینهی Prevent third-party sharing مانع استفاده از محتوای خود برای آموزش هوش مصنوعی شوید. همچنین بر اساس صفحات پشتیبانی Tumblr، پستهای صریح، وبلاگهای حذفشده، و وبلاگهای دارای رمزعبور یا خصوصی بههیچوجه با شرکتهای دیگر به اشتراک گذاشته نمیشوند.
اسکلت
شاید برایتان عجیب باشد، اما حتی همان پیامهای رد و بدل شدهی بهظاهر بیاهمیت در اسلک محل کارتان هم ممکن است برای آموزش مدلهای این پلتفرم استفاده شوند. براساس گفتهی معاون بخش محصول اسلک، این پلتفرم از سالیان گذشته در محصولاتش از یادگیری ماشین برای ارائهی قابلیتهایی مثل پیشنهاد کانال و ایموجی استفاده میکند.
اگرچه اسلک از دادههای مشتریان برای آموزش مدل زبان بزرگ محصول هوش مصنوعی خود استفاده نمیکند، اما میتواند از تعاملات شما برای بهبود قابلیتهای یادگیری ماشینی نرمافزار بهره ببرد. در صورتیکه از حساب سازمانی اسلک استفاده میکنید، امکان انصراف از این فرآیند وجود ندارد.
تنها راه برای لغو اشتراک اسلک، ارسال ایمیل ازطرف مدیر سیستم به آدرس feedback@slack.com است. موضوع ایمیل باید Slack Global model opt-out request باشد و URL سازمان نیز در آن درج شود. اسلک هیچ جدول زمانی برای مدت زمان انجام فرایند لغو اشتراک ارائه نمیدهد، اما پساز تکمیل آن باید ایمیل تأیید برای شما ارسال کند.
وبسایت اختصاصی
اگر وبسایت اختصاصی خود را راهاندازی کردهاید، میتوانید با بهروزرسانی فایل robots.txt از رباتهای هوش مصنوعی بخواهید صفحاتتان را کپی نکنند. بسیاری از وبسایتهای خبری اجازه نمیدهند رباتهای هوش مصنوعی مقالاتشان را مرور کنند. برای مثال، فایل robots.txt وبسایت WIRED اجازهی دسترسی به رباتهای OpenAI، گوگل، آمازون، فیسبوک، Anthropic و Perplexity و بسیاری دیگر را نمیدهد.
این قابلیت صرفاً برای ناشران محتوا کاربرد ندارد. هر وبسایتی میتواند با اضافه کردن دستور disallow به فایل robots.txt، رباتهای هوش مصنوعی را از دسترسی به سایت خود منع کند.
منبع: زومیت
باشگاه خبرنگاران جوان علمی پزشکی فناوری