از موازی‌کاری‌ها در هوش مصنوعی تا چالش‌های نبود مقررات
کد خبر: 4150493
تاریخ انتشار : ۰۵ تير ۱۴۰۲ - ۱۴:۱۲
در همایش هوش مصنوعی، رسانه و تحولات تولید محتوا مطرح شد

از موازی‌کاری‌ها در هوش مصنوعی تا چالش‌های نبود مقررات

نخستین همایش «هوش مصنوعی، رسانه و تحولات تولید محتوا» امروز پنجم تیرماه به طرح مطالبی پیرامون موازی‌کاری در هوش مصنوعی، چالش‌های نبود مقررات، کاربردهای هوش مصنوعی و ... با حضور صاحب‌نظران در مرکز همایش‌های بین‌المللی کتابخانه ملی برگزار شد.

از موازی کاری در هوش مصنوعی تا چالش‌های نبود مقرراتبه گزارش خبرنگار ایکنا؛ نخستین همایش «هوش مصنوعی، رسانه و تحولات تولید محتوا» به همت دفتر مطالعات و برنامه‌ریزی رسانه‌ها با مشارکت معاونت مطبوعات و اطلاع‌رسانی وزارت فرهنگ و ارشاد اسلامی و سازمان اسناد و کتابخانه ملی ایران، امروز دوشنبه پنجم تیرماه با حضور محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی در مرکز همایش‌های بین‌المللی کتابخانه ملی برگزار شد.

محمدمهدی اسماعیلی در این همایش طی سخنانی، موضوع هوش مصنوعی را نقطه عطف و تحول مهم در تمام حوزه‌های بشری خواند و گفت: هوش مصنوعی به عنوان انقلاب جدید، همانند انقلاب صنعتی و ارتباطی است که دامنه تأثیرگذاری آن در تمام حوزه‌های بشری گسترده است.

وزیر فرهنگ و ارشاد اسلامی افزود: روزانه اخبار متنوعی در حوزه هوش مصنوعی منتشر می‌شود و در این راستا نگرانی‌هایی هم وجود دارد که باید در حوزه فرهنگ، هنر و رسانه آن را مطالبه کنیم. پیشتر روزنامه‌ها بخش مهمی از اطلاعات مردم را تشکیل می‌دادند و تیراژ روزنامه‌ها تا ۵۰۰ یا ۶۰۰ هزار می‌رسید و برخی از مردم برای آگهی روزنامه‌ها از آن‌ها استفاده می‌کردند، اما امروز تیراژ برخی از روزنامه‌ها به زیر ۲ تا سه هزار رسیده است و پیمایش‌های روزنامه‌ها زیر ۲ درصد است. یعنی مرجعیت از نظام رسانه‌ای مکتوب به نظام رسانه‌های دیجیتال تغییر کرده و صدا و سیما به دلیل حجم بالای رقبای داخلی و خارجی در حوزه رسانه و تولید محتوا در حال از دست دادن مرجعیت خود است.

وزیر ارشاد

اسماعیلی در ادامه به اختلافات در حوزه نظارت بر شبکه نمایش خانگی اشاره کرد و گفت: شبکه نمایش خانگی بخش قابل توجهی از اوقات فراغت مردم را تشکیل می‌دهد و در سال‌های اخیر که بر سر نظارت بر تصویر بین وزارت ارشاد و صدا و سیما اختلاف به وجود آمده است، اپ‌های معمولی هم در حال پخش فیلم هستند. با این اوضاع، آیا می‌شود به روش سابق تنظیم‌گری کرد؟ ما در رابطه با فیلم‌هایی که در سالن‌های سینما نمایش داده می‌شود، نظارت جدی داریم، اما بر فیلم‌هایی که در گوشی‌های موبایل پخش می‌شود، هیچ نظارتی وجود ندارد و نمی‌دانیم در این زمینه چه کنیم؟ (متن کامل سخنان وزیر ارشاد در همایش هوش مصنوعی، رسانه و تحولات تولید محتوا)

در ادامه منصوره فصیح، عضو هیئت علمی پژوهشگاه فرهنگ، هنر و ارتباطات در این همایش با اشاره به مالکیت فکری و اثر هوش مصنوعی بر این مسئله گفت: مالکیت فکری یکی از راه‌های دستیابی به توسعه پایدار است و حقی ناشی از پدیدآوردن یک اثر، برای کسی است که آن اثر را به وجود آورده است. در سال‌های اخیر شاهدیم که فرد به واسطه رایانه، آثاری را تولید می‌کند و اینجاست که مالکیت فکری و معنوی آن مطرح می‌شود.



وی افزود: موارد متعددی شاهدیم که سیستم‌های کامپیوتری جایگزین فعالیت‌های ذهنی افراد شده‌اند و از آن به هوش مصنوعی تعبیر می‌شود که برای پردازش اطلاعات از آن استفاده می‌شود. در واقع هوش مصنوعی به دنبال ماشین‌های متفکری است که به توانمندی ذهنی انسان مسلط شود و این مسئله به قدری گسترده شده است که چالش‌های جدیدی را به وجود آورده است.

فصیح ادامه داد: متخصصان فناوری هوش مصنوعی، تلاش می‌کنند، توانایی‌های هوش بشری را شبیه‌سازی کنند؛ از این رو هوش مصنوعی به عنوان ابزاری در عرصه فناوری در شاخه‌های مختلف علوم ورود کرده است.

وی با اشاره به کاربرد هوش مصنوعی گفت: واژه هوش مصنوعی به توسعه و طراحی سیستم‌هایی گفته می‌شود که توانایی فکر کردن دارد و از جمله ویژگی‌های آن می‌توان به استدلال کردن، حل کردن مسائل و ادراک آن اشاره کرد. در واقع هوش مصنوعی براساس الگوریتم‌هایی که برنامه‌نویس می‌نویسد، قابلیت پردازش دارد و همانند آنچه انسان می‌تواند تولید کند، کار می‌کند.

این عضو هیئت علمی پژوهشگاه فرهنگ، هنر و ارتباطات تصریح کرد: نظام مالکیت فکری با تکیه بر قانون حمایت از حقوق پدیدآورندگان نرم‌افزار‌های رایانه‌ای تدوین و به مسئله پدیدآورنده توجه ویژه‌ای کرده است. در این راستا مشکل اصلی در حوزه هوش مصنوعی است که با توجه به رویکرد سنتی که در این زمینه داریم، شاهد نقض فاحش این حقوق خواهیم بود.

وی ادامه داد: در حوزه هوش مصنوعی با این سؤالات مواجه خواهیم بود که آیا ساختار مالکیت فکری آن قدر منعطف است که از آثار تولید شده در هوش مصنوعی حمایت کند؟ آیا می‌توانیم بر مبنای هوش مصنوعی، پدیدآورنده آثار تولید شده را مشخص کنیم، چراکه انسان نقش مستقیمی در این عرصه ندارد. البته مبنای حقوق مالکیت فکری در کشور‌های مختلف متفاوت است؛ از این رو سؤالات در این حوزه نیز متفاوت خواهد بود. در کشور ما و فرانسه، مالکیت فکری براساس شخصیت بوده است.

فصیح در ادامه بیان کرد: کارشناسان نقدی را مطرح کرده‌اند که با توجه به رویکرد کنوانسیون برن، هدف اصلی این کنوانسیون حمایت از پدیدآورنده اثر است تا حقوقش تضییع نشود، اما آنچه در برخی کشور‌ها در زمینه مالکیت فکری وجود دارد، با کنوانسیون برن تناقض دارد.

وی همچنین به اصالت اثر اشاره کرد و گفت: بر این مبنا، تمام منافع برای پدیدآورنده اثر خواهد بود و در این راستا باید یکسری بانک‌های اطلاعاتی و نظام ویژه طراحی شود و صاحبنظران حقوقی در این زمینه ورود کنند تا هر کسی با استفاده از هوش مصنوعی اقدام به جعل اثر نکند.

حرکت کند ایران در هوش مصنوعی

به گزارش ایکنا، حمد نیک‌آبادی، عضو هیئت علمی دانشگاه امیرکبیر نیز در ادامه به هوش مصنوعی و محتوای صوتی، بصری رسانه‌ای اشاره کرد و گفت: هوش مصنوعی برای انجام یکسری از کار‌ها به صورت خودکار است، به طوری که یادگیری ماشین مطرح بوده و از دانش افراد استفاده می‌شود، اما یادگیری ماشین، یادگیری عمیقی خواهد بود و این مسئله هوش مصنوعی را وارد فاز جدیدی کرده است.

وی خودمختاری، استدلال و یادگیری آنلاین را از دیگر ویژگی‌های هوش مصنوعی دانست و افزود: ممکن است هر یک از این ویژگی‌ها نگرانی‌هایی را داشته باشد، از جمله اینکه در رابطه با خودمختار بودن، ممکن است اتفاقاتی بیفتد که نتوانیم آن را کنترل کنیم و ما نمی‌دانیم هوش مصنوعی تا کجا پیش خواهد رفت.

نیک‌آبادی ادامه داد: هوش مصنوعی فراز و نشیب‌های زیادی داشته است، برخی بیان می‌کنند که چه نیازی به هوش مصنوعی است، در حالی که در آینده نزدیک کاربرد‌های آن بسیار گسترده خواهد بود و باید بر روی آن سرمایه‌گذاری کرد. البته ما حرکت کندی در این زمینه داریم و کار‌های موازی بسیاری انجام می‌دهیم، اما به هر حال باید سریعتر باشیم.

وی در ادامه گفت: در حوزه تصویر در هوش مصنوعی می‌توان تصویر را دستکاری و یا بازسازی کرد و یا هر تصویری را بدهید به فضای پنهان انتقال می‌یابد و می‌توان تصاویر سنین مختلف را بازسازی کرد. اما نکته مهم این است که آیا می‌توان واقعیت را از فیک تشخیص داد یا خیر؛ این یک چالش جدی است و فعالیت‌هایی هم در این زمینه انجام شده و همچنان ادامه دارد.

رسانه مبتنی بر هوش مصنوعی نداریم

بررسی «هوش مصنوعی، رسانه و تحولات تولید محتوا»

نوید باصری، مدیر گروه امنیت فناوری سازمان پژوهش‌های علمی و صنعتی ایران در ادامه همایش درباره هوش مصنوعی و شکاف اطلاعاتی گفت: اختلاف ناشی از توزیع نابرابر امکانات فناوری اطلاعات و ارتباطات در بین کشورها، کسب و کار‌ها یا گروه‌های مختلف اجتماعی شکاف دیجیتال محسوب می‌شود که عدم دسترسی به ارتباطات و اینترنت، عدم برخورداری از مهارت‌های لازم، محدودیت‌های مالی و اقتصادی، هزینه‌های بالای فناوری، عدم وجود نیروی متخصص و نگرش منفی به فناوری باعث بروز این شکاف شده است.

وی در ادامه به شکاف هوش مصنوعی اشاره کرد و افزود: این پدیده به معنی تفاوت بین افراد، خانوارها، مشاغل و کشور‌هایی است که به امکانات و مزایای ناشی از فناوری هوش مصنوعی دسترسی دارند و کسانی که از این امکانات بی‌بهره هستند. در واقع عوامل اقتصادی، عدم دسترسی به فناوری، کمبود تجهیزات پردازشی، کمبود نیروی متخصص، کمبود داده، عدم اعتماد و نبود قوانین و تنظیم‌گری باعث این پدیده می‌شود.

پیامد‌های شکاف هوش مصنوعی

باصری در ادامه با اشاره به پیامد‌های شکاف هوش مصنوعی گفت: ایجاد یا تقویت نابرابری‌های اقتصادی و اجتماعی، از دست رفتن فرصت‌های کسب و کار، افزایش هزینه‌ها، کاهش بهره‌وری، آسیب‌پذیری در برابر اطلاعات نادرست و گمراه‌کننده از پیامد‌های عمده شکاف هوش مصنوعی محسوب می‌شود و با وجود اینکه هنوز شاخص دقیقی در این زمینه وجود ندارد، اما شاخص هوش مصنوعی از سوی دانشگاه استنفورد تهیه می‌شود.

وی درباره کاربرد‌های هوش مصنوعی گفت: در حوزه رسانه می‌توان به تولید رسانه‌ای همچون مدل‌های مولد تولید محتوای متنی، مدل‌های تولید تصویر، تولید صدا و گفتار و ویدئو، تبدیل توأم متن، صدا و تصویر و تولید خودکار یا نیمه خودکار محتوا اشاره کرد که از سوی اپلیکیشن‌هایی انجام می‌شود. در حوزه مصرف رسانه‌ای نیز، شخصی‌سازی هوشمند در شبکه‌ها و رسانه‌های اجتماعی مورد استفاده قرار گرفته است، اما با پیشرفت‌های اخیر فناوری می‌توان انتظار داشت که شخصی‌سازی به شکل‌های ارائه محتوا بر مبنای رسانه مورد نظر کاربر، ارائه محتوا متناسب به سطح تخصص و دانش کاربر، ارائه محتوا با لحن مورد درخواست کاربر، ارائه محتوا با سطح جزئیات مورد درخواست کاربر انجام گیرد.

باصری به کاربرد دیگر هوش مصنوعی در حوزه راستی‌آزمایی اشاره و بیان کرد: مدل‌های هوش مصنوعی می‌توانند ابزار مناسبی برای راستی‌آزمایی محتوای رسانه‌ای باشند و اگر بر روی دیتاست‌های مناسبی آموزش ببینند، می‌توانند به صورت خودکار محتوای رسانه‌ای را راستی‌آزمایی کنند. البته چندین استارتاپ از جمله SQUASH، FACTINSECT و FACTMATA با هدف استفاده از هوش مصنوعی برای راستی‌آزمایی خودکار محتوای رسانه‌ای مشغول به فعالیت هستند. در حوزه تنظیم‌گری رسانه‌ای نیز مدل‌های هوش مصنوعی از جمله تدوین و تطبیق قوانین تنظیم‌گری، نظارت بر اجرای قوانین و کمک به تولیدکنندگان محتوا در تشخیص موارد عدم تطبیق می‌تواند مورد استفاده قرار گیرد.

رسانه‌ای با ویژگی‌های هوش مصنوعی نداریم

مدیر گروه امنیت فناوری سازمان پژوهش‌های علمی و صنعتی ایران افزود: در حال حاضر رسانه‌ای با ویژگی‌های هوش مصنوعی نداریم، اما از ویژگی‌های آن می‌توان به قابلیت تولید محتوا به صورت خودکار یا نیمه خودکار، تولید یا تبدیل محتوای چندرسانه‌ای، ارائه محتوا براساس نیاز کاربر از نظر لحن، سطح تخصصی، میزان جزئیات، راستی‌آزمایی خودکار، ارائه اطلاعات جانبی و افزونه، تعامل با کاربر از طریق چت یا مکالمه، تلفیق محتوا از منابع مختلف و تطبیق محتوا با قوانین اشاره کرد.

وی با اشاره به محدودیت‌های فعلی هوش مصنوعی بیان کرد: در حال حاضر به صورت گسترده از قابلیت‌های هوش مصنوعی در رسانه‌ها استفاده نشده که جدید بودن فناوری و عدم شناخت عمومی از قابلیت آن، نواقص مدل‌های هوش مصنوعی، عدم دسترسی یا هزینه بالای استفاده از مدل‌های هوش مصنوعی، کمبود امکانات فنی و نیروی متخصص، محدودیت در محتویات چندرسانه‌ای تولید شده توسط مدل‌های هوش مصنوعی و نبود مقررات و زیرساخت‌های قانونی از دلایل عمده آن به شمار می‌رود. البته با از میان رفتن تدریجی این محدودیت‌ها می‌توان انتظار داشت که رسانه‌ها شروع به استفاده از امکانات هوش مصنوعی کنند.

باصری با بیان اینکه نبود مقررات چالشی است که بسیار به آن اشاره شده است، گفت: در این زمینه سؤالات متعددی مطرح است، اینکه آیا رسانه‌های متعارف قابلیت رقابت با رسانه‌های مبتنی بر هوش مصنوعی را خواهند داشت، آیا همه یا اغلب رسانه‌های متعارف می‌توانند خود را با تحولات فناوری ارتقا دهند و چه تفاوت‌هایی بین کاربرانی که از رسانه‌های هوشمند استفاده می‌کنند و آن‌هایی که از رسانه‌های متعارف استفاده می‌کنند، به وجود می‌آید؟

وی ادامه داد: جذابیت، تولید آسان‌تر محتوا، تعامل با کاربران، تطبیق بهتر محتوا با قوانین تنظیم‌گری و راستی‌آزمایی خودکار از مزایای رسانه‌های هوشمند نسبت به رسانه‌های متعارف است و از امتیازات رقابتی رسانه‌های متعارف می‌توان به برند و اعتماد اشاره کرد.

حلقه حریم خصوصی تنگ‌تر می‌شود

بررسی «هوش مصنوعی، رسانه و تحولات تولید محتوا»

در ادامه این نشست مریم سلیمی، مدرس ارتباطات با موضوع هوش مصنوعی و حریم خصوصی کاربران رسانه، به سخرانی پرداخت و گفت: ما به سمت هر چه هوشمندتر شدن می‌رویم و فناوری‌های پوشیدنی بخشی از این پازل خواهند بود که در این نشست بررسی می‌کنیم که این هوشمندتر شدن، در حریم خصوصی ذهن ما چه تأثیری خواهد داشت.

وی تشریح کرد: ما در حال حاضر در رسانه‌های اجتماعی فعالیت داریم و همه پلتفرم‌های ما توسط مالکانی که این بستر را در اختیار ما قرار داده‌اند رصد می‌شود. اما در رسانه‌های اجتماعی محدودیت داریم. مثلاً اگر از چیزی خوشمان بیاید لایک می‌کنیم یا در نهایت کامنت می‌گذاریم اما وقتی به متاورس برسیم قرار است همه حواس ما درگیر شود یعنی هر کدام از حواس که اضافه می‌شود دیگر ابعاد بدن ما هم به این داده‌ها اضافه می‌شود و هر چه‌قدر داده‌ها بیشتر، امکان تحلیل بیشتر و امکان شناخت بیشتر فراهم می‌شود.

این استاد دانشگاه با اشاره به اینکه هشت فناوری قرار است در شکل گیری متاورس تأثیر بگذارد، گفت: واقعیت توسعه یافته، تعامل انسان و ماشین، بلاک چین، هوش مصنوعی، اینترنت اشیا، بینایی کامپیوتر، رایانش ابری و لبه و شبکه‌های موبایلی آینده این موارد هستند.  

وی در مورد بینایی کامپیوتر گفت: بینایی کامپیوتر شامل روش‌های مختلفی است که بنا به دستیابی تصاویر دیدن، پردازش و درک محتوای آنها این بستر را فراهم می‌کند. بیومتریک استفاده زیادی دارد از جمله در پزشکی و سینما و شناسایی چهره ما، اثرانگشت ما، دست ما، اسکن عنبیه و شبکیه ما، امضای ما و ... در آن مطرح است. حتی رگ‌های دست ما و نحوه راه رفتن ما هم منحصر به فرد است و می‌تواند در مسیر اهداف سیاسی، تبلیغاتی یا توسط شرکت‌ها و سازمان‌های مختلف استفاده شود.

سلیمی در مورد فناوری پوشیدنی نیز گفت: فناوری پوشیدنی بخش دیگری از این پازل است که ما داوطلبانه لباس هوشمند می‌پوشیم یا عینک هوشمند می‌زنیم یا از ساعت هوشمند و ... استفاده می‌کنیم. می‌خوابیم و ساعت هوشمند دست ما است و به ما می‌گوید چه قدر خوابیده‌ایم و چه قدر خواب ما عمیق بوده و اطلاعات دیگری که قرار است در این بستر ارائه شود. یعنی این ساعت از نزدیک‌ترین فرد به ما هم نزدیک‌تر است و هر لحظه ما را رصد می‌کند.

وی ادامه داد: در اینترنت اشیا، همه اشیا قادر به اتصال به اینترنت هستند و در این شرایط زمینه برای انجام بسیاری امور فراهم می‌شود. می‌توان تلویزیون را از راه دور خاموش کرد، برق اتو را قطع کرد و ... . قسمت‌هایی از این فناوری خوب است اما قطعا مشکلات دیگری خواهد داشت مثل اینکه همه وسایلی که به اینترنت وصل هستند قابلیت حک شدن دارند. این فناوری برای شرکت‌ها منفعت زیادی دارد مثلاً یخچال من به شرکتی که آن را به من فروخته وصل است و به من اعلام می‌کند که عمر مفید یخچال دارد تمام می‌شود. با این ابزار من عملاً دارم اطلاعات خانه و اشیائم را به اشتراک می‌گذارم و حتی در سرویس‌های بهداشتی، حمام و ... برای ارزیابی آخرین وضعیت سلامت بدن، نحوه کارکرد کلیه و ... می‌تواند مورد استفاده قرار گیرد.

وی تصریح کرد: همگرایی و اتحادهای بین تکنولوژی‌ها در بسترها و حوزه‌های مختلف حلقه حریم خصوصی را تنگ‌تر و تنگ‌تر می‌کند. حال مسئله هوش مصنوعی را به این حلقه اضافه کنید و ببینید آیا چیزی از حریم خصوصی باقی می‌ماند؟ پس هر چقدر همگرایی‌ها بیشتری می‌شود این حلقه تنگ‌تر می‌شود.

سلیمی یک نگرانی در مورد هوش مصنوعی را رشد سریع آن عنوان و اظهار کرد: رشد هوش مصنوعی از سال 2022 شتاب عجیبی گرفته است و حتی کارشناسان این حوزه اعلام کردند که خیلی سریع در این مسیر حرکت می‌کنیم و نگرانی جدی این است که از هوش مصنوعی برای کارهای ویرانگر، غیر انسانی و غیر اخلاقی استفاده شود یا در مسیر انجام کارهای خوب به روش‌های آسیب‌زا و مخرب متوسل شود و بزرگ‌ترین نگرانی این است که به ابرهوش تبدیل شده و بر هوش انسان برتری پیدا و خطراتی در این مسیر ایجاد کند.

وی در مورد چالش‌ها و خطرات هوش مصنوعی، قرار گرفتن در اختیار تروریست‌ها، استفاده توسط افراد متعصب و نژادپرست، قرار گرفتن در اختیار گروه‌های نژادی، دینی و ... خاص، تولید محتوای جعلی و دیپ فیک‌ها، زیرپا گذاشتن کرامت انسانی و حریم خصوصی را برشمرد و گفت: یکی از دغدغه‌های جدی در خصوص هوش مصنوعی بستر اخلاقی و حریم شخصی افراد است که در توصیه‌نامه‌ها و هر منشوری که نوشته می‌‌شود سعی می‌کنند این موضوع را مورد توجه قرار دهند.

این استاد دانشگاه تصریح کرد: هوش مصنوعی مثل چاقوی دولبه است که می‌تواند به عنوان یک راه حل امنیتی یا به عنوان یک سلاح توسط هکرها استفاده شود.

وی در خصوص تأثیر هوش مصنوعی بر حریم خصوصی گفت: تعریف‌های مختلفی از این حریم وجود دارد. حریم خصوصی شامل قلمرو شخصی و خصوصی فرد، محل زندگی و اقامت، مکاتبات شخصی، شرافت و حیثیت و آبروی افراد می‌شود که به این لیست باید کلیه اطلاعات و داده‌های شخصی افراد و ارتباطات در فضای واقعی و مجازی را نیز اضافه کرد. گونه‌های مختلفی از حریم خصوصی وجود دارد از جمله حریم خصوصی جسمانی، حریم خصوصی در منزل و اماکن، حریم خصوصی ارتباطاتی و حریم خصوصی اطلاعات و داده‌ها و ... .

سلیمی تشریح کرد: برای درک بیشتر حریم خصوصی باید رفتارها را بر سه بعد مختلف و به هم پیوسته تجزیه و تحلیل کرد که شامل بعد فیزیکی، روانی و دیجیتال است که اینها با هم در تعامل هستند. البته ما گاهی وقت‌ها به خاطر اینکه سلسله نیازهای مازلو را تأمین کنیم مجبور هستیم که خودمان بخشی از حریم خصوصی‌مان را آزاد کنیم و در اختیار دیگران قرار دهیم.

وی در ادامه به اعلامیه حقوق بشر اشاره کرد و گفت: در این اعلامیه بر لزوم احترام به قلمرو خصوصی، خانواده، مکاتبات شخصی، شرافت و آبروی افراد و محل زندگی آنها اشاره و تاکید شده که هیچ احدی نمی‌تواند بدون مجوز وارد این حریم شود. حریم خصوصی یک حق اساسی است که برای استقلال و حفاظت از کرامت انسانی ضروری و مهم است و به عنوان یکی از ستون‌های حقوق بشر است و نتیجه رعایت آن احساس امنیت و آرامش افراد یک جامعه است و در صورت رعایت نشدن می‌تواند موجب رنجش و وارد شدن صدمه به افراد شود.

سلیمی خاطرنشان کرد: در قانون اساسی کشور، قانون جرائم رایانه‌ای و قانون مطبوعات نیز به این مسئله اشاره شده است. البته ما در این خصوص نیاز به قوانین جدید داریم و می‌توانیم از تجارب کشورهای دیگر بهره بگیریم. اما باید توجه داشته باشیم قوانین مانع از نوآوری جدید درحوزه هوش مصنوعی نشود و در تصویب قوانین به سرعت توسعه و تحول هوش مصنوعی به عنوان یک ماشین یادگیرنده توجه شود.

وی با اشاره به اینکه حریم خصوصی حتی در فضای متاورس هم مورد توجه است، گفت: در فضای متاورس حریم شخصی جسمانی و فیزیکی، به یاری حباب حفاظتی در دنیا مورد توجه قرار گرفت و یکسری حباب تعریف شد تا بتوان فاصله‌ای ایجاد کرد تا کاربران مورد آزار جسمی و جنسی قرار نگیرند.

این استاد دانشگاه در خصوص حریم خصوصی ذهن نیز گفت: یکی از بحث‌های جدی لزوم توانایی خصوصی نگه داشتن افکار و مصون بودن از دستکاری افکار و عدم مجازات شدن به خاطر افکار است. اتحادیه اروپا بر عدم نفوذ هوش مصنوعی به ذهن تأکید کرده است ولی از کاشت تراشه‌های مغزی، الکترودهای کاشتنی، کلاه، هدست و ... با هدف پزشکی استفاده می‌شود اما از سوی دیگر نگرانی‌های عمیقی درست شده که کاشت تراشه‌های مغزی و دیگر ابزار مشابه که امکان ورود و نفوذ به ذهن را فراهم و سبب مشکلات جدی در حفظ حریم خصوصی ‌شود.

عدم آگاهی مردم از قدرت هوش مصنوعی

سخنران بعدی این مراسم، اسماعیل کفاشی، مدرس دانشگاه با محور «هوش مصنوعی و آینده مشاغل رسانه‌ای» بود.

وی با اشاره به سخنرانی مقام معظم رهبری در خصوص هوش مصنوعی، کوانتوم و اینترنت و تأکید ایشان مبنی بر توجه به این مسائل، گفت: هوش مصنوعی اکنون در نقطه مرجعیت است اما آیا هر چه می‌گوید درست است؛ قطعاً خیر. اگر با هوش مصنوعی تعامل داریم حتماً بخواهیم منابع را در اختیار ما قرار دهد. گهگاه پاسخ‌هایی که دریافت می‌کنیم درست نیست و اگر به دنبال مراجع نرویم قطعاً دچار اشکال می‌شویم.

کفاشی موارد استفاده از هوش مصنوعی را تشریح کرد و گفت: مسئله مهم عدم آگاهی مردم از قدرت هوش مصنوعی است. اینکه با هوش مصنوعی در ارتباط باشیم برای ما جذاب است اما این جذابیت باعث می‌شود هر چه قدر تعامل با هوش مصنوعی بیشتر شود هوش مصنوعی قوی‌تر شود و به جایی برسد که دیگر مثل ما فکر نمی‌کند بلکه برتر از ما فکر و عمل می‌کند.

انتهای پیام
captcha