به گزارش خبرنگار ایکنا؛ نخستین همایش «هوش مصنوعی، رسانه و تحولات تولید محتوا» به همت دفتر مطالعات و برنامهریزی رسانهها با مشارکت معاونت مطبوعات و اطلاعرسانی وزارت فرهنگ و ارشاد اسلامی و سازمان اسناد و کتابخانه ملی ایران، امروز دوشنبه پنجم تیرماه با حضور محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی در مرکز همایشهای بینالمللی کتابخانه ملی برگزار شد.
محمدمهدی اسماعیلی در این همایش طی سخنانی، موضوع هوش مصنوعی را نقطه عطف و تحول مهم در تمام حوزههای بشری خواند و گفت: هوش مصنوعی به عنوان انقلاب جدید، همانند انقلاب صنعتی و ارتباطی است که دامنه تأثیرگذاری آن در تمام حوزههای بشری گسترده است.
وزیر فرهنگ و ارشاد اسلامی افزود: روزانه اخبار متنوعی در حوزه هوش مصنوعی منتشر میشود و در این راستا نگرانیهایی هم وجود دارد که باید در حوزه فرهنگ، هنر و رسانه آن را مطالبه کنیم. پیشتر روزنامهها بخش مهمی از اطلاعات مردم را تشکیل میدادند و تیراژ روزنامهها تا ۵۰۰ یا ۶۰۰ هزار میرسید و برخی از مردم برای آگهی روزنامهها از آنها استفاده میکردند، اما امروز تیراژ برخی از روزنامهها به زیر ۲ تا سه هزار رسیده است و پیمایشهای روزنامهها زیر ۲ درصد است. یعنی مرجعیت از نظام رسانهای مکتوب به نظام رسانههای دیجیتال تغییر کرده و صدا و سیما به دلیل حجم بالای رقبای داخلی و خارجی در حوزه رسانه و تولید محتوا در حال از دست دادن مرجعیت خود است.
اسماعیلی در ادامه به اختلافات در حوزه نظارت بر شبکه نمایش خانگی اشاره کرد و گفت: شبکه نمایش خانگی بخش قابل توجهی از اوقات فراغت مردم را تشکیل میدهد و در سالهای اخیر که بر سر نظارت بر تصویر بین وزارت ارشاد و صدا و سیما اختلاف به وجود آمده است، اپهای معمولی هم در حال پخش فیلم هستند. با این اوضاع، آیا میشود به روش سابق تنظیمگری کرد؟ ما در رابطه با فیلمهایی که در سالنهای سینما نمایش داده میشود، نظارت جدی داریم، اما بر فیلمهایی که در گوشیهای موبایل پخش میشود، هیچ نظارتی وجود ندارد و نمیدانیم در این زمینه چه کنیم؟ (متن کامل سخنان وزیر ارشاد در همایش هوش مصنوعی، رسانه و تحولات تولید محتوا)
در ادامه منصوره فصیح، عضو هیئت علمی پژوهشگاه فرهنگ، هنر و ارتباطات در این همایش با اشاره به مالکیت فکری و اثر هوش مصنوعی بر این مسئله گفت: مالکیت فکری یکی از راههای دستیابی به توسعه پایدار است و حقی ناشی از پدیدآوردن یک اثر، برای کسی است که آن اثر را به وجود آورده است. در سالهای اخیر شاهدیم که فرد به واسطه رایانه، آثاری را تولید میکند و اینجاست که مالکیت فکری و معنوی آن مطرح میشود.
وی افزود: موارد متعددی شاهدیم که سیستمهای کامپیوتری جایگزین فعالیتهای ذهنی افراد شدهاند و از آن به هوش مصنوعی تعبیر میشود که برای پردازش اطلاعات از آن استفاده میشود. در واقع هوش مصنوعی به دنبال ماشینهای متفکری است که به توانمندی ذهنی انسان مسلط شود و این مسئله به قدری گسترده شده است که چالشهای جدیدی را به وجود آورده است.
فصیح ادامه داد: متخصصان فناوری هوش مصنوعی، تلاش میکنند، تواناییهای هوش بشری را شبیهسازی کنند؛ از این رو هوش مصنوعی به عنوان ابزاری در عرصه فناوری در شاخههای مختلف علوم ورود کرده است.
وی با اشاره به کاربرد هوش مصنوعی گفت: واژه هوش مصنوعی به توسعه و طراحی سیستمهایی گفته میشود که توانایی فکر کردن دارد و از جمله ویژگیهای آن میتوان به استدلال کردن، حل کردن مسائل و ادراک آن اشاره کرد. در واقع هوش مصنوعی براساس الگوریتمهایی که برنامهنویس مینویسد، قابلیت پردازش دارد و همانند آنچه انسان میتواند تولید کند، کار میکند.
این عضو هیئت علمی پژوهشگاه فرهنگ، هنر و ارتباطات تصریح کرد: نظام مالکیت فکری با تکیه بر قانون حمایت از حقوق پدیدآورندگان نرمافزارهای رایانهای تدوین و به مسئله پدیدآورنده توجه ویژهای کرده است. در این راستا مشکل اصلی در حوزه هوش مصنوعی است که با توجه به رویکرد سنتی که در این زمینه داریم، شاهد نقض فاحش این حقوق خواهیم بود.
وی ادامه داد: در حوزه هوش مصنوعی با این سؤالات مواجه خواهیم بود که آیا ساختار مالکیت فکری آن قدر منعطف است که از آثار تولید شده در هوش مصنوعی حمایت کند؟ آیا میتوانیم بر مبنای هوش مصنوعی، پدیدآورنده آثار تولید شده را مشخص کنیم، چراکه انسان نقش مستقیمی در این عرصه ندارد. البته مبنای حقوق مالکیت فکری در کشورهای مختلف متفاوت است؛ از این رو سؤالات در این حوزه نیز متفاوت خواهد بود. در کشور ما و فرانسه، مالکیت فکری براساس شخصیت بوده است.
فصیح در ادامه بیان کرد: کارشناسان نقدی را مطرح کردهاند که با توجه به رویکرد کنوانسیون برن، هدف اصلی این کنوانسیون حمایت از پدیدآورنده اثر است تا حقوقش تضییع نشود، اما آنچه در برخی کشورها در زمینه مالکیت فکری وجود دارد، با کنوانسیون برن تناقض دارد.
وی همچنین به اصالت اثر اشاره کرد و گفت: بر این مبنا، تمام منافع برای پدیدآورنده اثر خواهد بود و در این راستا باید یکسری بانکهای اطلاعاتی و نظام ویژه طراحی شود و صاحبنظران حقوقی در این زمینه ورود کنند تا هر کسی با استفاده از هوش مصنوعی اقدام به جعل اثر نکند.
حرکت کند ایران در هوش مصنوعی
به گزارش ایکنا، حمد نیکآبادی، عضو هیئت علمی دانشگاه امیرکبیر نیز در ادامه به هوش مصنوعی و محتوای صوتی، بصری رسانهای اشاره کرد و گفت: هوش مصنوعی برای انجام یکسری از کارها به صورت خودکار است، به طوری که یادگیری ماشین مطرح بوده و از دانش افراد استفاده میشود، اما یادگیری ماشین، یادگیری عمیقی خواهد بود و این مسئله هوش مصنوعی را وارد فاز جدیدی کرده است.
وی خودمختاری، استدلال و یادگیری آنلاین را از دیگر ویژگیهای هوش مصنوعی دانست و افزود: ممکن است هر یک از این ویژگیها نگرانیهایی را داشته باشد، از جمله اینکه در رابطه با خودمختار بودن، ممکن است اتفاقاتی بیفتد که نتوانیم آن را کنترل کنیم و ما نمیدانیم هوش مصنوعی تا کجا پیش خواهد رفت.
نیکآبادی ادامه داد: هوش مصنوعی فراز و نشیبهای زیادی داشته است، برخی بیان میکنند که چه نیازی به هوش مصنوعی است، در حالی که در آینده نزدیک کاربردهای آن بسیار گسترده خواهد بود و باید بر روی آن سرمایهگذاری کرد. البته ما حرکت کندی در این زمینه داریم و کارهای موازی بسیاری انجام میدهیم، اما به هر حال باید سریعتر باشیم.
وی در ادامه گفت: در حوزه تصویر در هوش مصنوعی میتوان تصویر را دستکاری و یا بازسازی کرد و یا هر تصویری را بدهید به فضای پنهان انتقال مییابد و میتوان تصاویر سنین مختلف را بازسازی کرد. اما نکته مهم این است که آیا میتوان واقعیت را از فیک تشخیص داد یا خیر؛ این یک چالش جدی است و فعالیتهایی هم در این زمینه انجام شده و همچنان ادامه دارد.
رسانه مبتنی بر هوش مصنوعی نداریم
نوید باصری، مدیر گروه امنیت فناوری سازمان پژوهشهای علمی و صنعتی ایران در ادامه همایش درباره هوش مصنوعی و شکاف اطلاعاتی گفت: اختلاف ناشی از توزیع نابرابر امکانات فناوری اطلاعات و ارتباطات در بین کشورها، کسب و کارها یا گروههای مختلف اجتماعی شکاف دیجیتال محسوب میشود که عدم دسترسی به ارتباطات و اینترنت، عدم برخورداری از مهارتهای لازم، محدودیتهای مالی و اقتصادی، هزینههای بالای فناوری، عدم وجود نیروی متخصص و نگرش منفی به فناوری باعث بروز این شکاف شده است.
وی در ادامه به شکاف هوش مصنوعی اشاره کرد و افزود: این پدیده به معنی تفاوت بین افراد، خانوارها، مشاغل و کشورهایی است که به امکانات و مزایای ناشی از فناوری هوش مصنوعی دسترسی دارند و کسانی که از این امکانات بیبهره هستند. در واقع عوامل اقتصادی، عدم دسترسی به فناوری، کمبود تجهیزات پردازشی، کمبود نیروی متخصص، کمبود داده، عدم اعتماد و نبود قوانین و تنظیمگری باعث این پدیده میشود.
پیامدهای شکاف هوش مصنوعی
باصری در ادامه با اشاره به پیامدهای شکاف هوش مصنوعی گفت: ایجاد یا تقویت نابرابریهای اقتصادی و اجتماعی، از دست رفتن فرصتهای کسب و کار، افزایش هزینهها، کاهش بهرهوری، آسیبپذیری در برابر اطلاعات نادرست و گمراهکننده از پیامدهای عمده شکاف هوش مصنوعی محسوب میشود و با وجود اینکه هنوز شاخص دقیقی در این زمینه وجود ندارد، اما شاخص هوش مصنوعی از سوی دانشگاه استنفورد تهیه میشود.
وی درباره کاربردهای هوش مصنوعی گفت: در حوزه رسانه میتوان به تولید رسانهای همچون مدلهای مولد تولید محتوای متنی، مدلهای تولید تصویر، تولید صدا و گفتار و ویدئو، تبدیل توأم متن، صدا و تصویر و تولید خودکار یا نیمه خودکار محتوا اشاره کرد که از سوی اپلیکیشنهایی انجام میشود. در حوزه مصرف رسانهای نیز، شخصیسازی هوشمند در شبکهها و رسانههای اجتماعی مورد استفاده قرار گرفته است، اما با پیشرفتهای اخیر فناوری میتوان انتظار داشت که شخصیسازی به شکلهای ارائه محتوا بر مبنای رسانه مورد نظر کاربر، ارائه محتوا متناسب به سطح تخصص و دانش کاربر، ارائه محتوا با لحن مورد درخواست کاربر، ارائه محتوا با سطح جزئیات مورد درخواست کاربر انجام گیرد.
باصری به کاربرد دیگر هوش مصنوعی در حوزه راستیآزمایی اشاره و بیان کرد: مدلهای هوش مصنوعی میتوانند ابزار مناسبی برای راستیآزمایی محتوای رسانهای باشند و اگر بر روی دیتاستهای مناسبی آموزش ببینند، میتوانند به صورت خودکار محتوای رسانهای را راستیآزمایی کنند. البته چندین استارتاپ از جمله SQUASH، FACTINSECT و FACTMATA با هدف استفاده از هوش مصنوعی برای راستیآزمایی خودکار محتوای رسانهای مشغول به فعالیت هستند. در حوزه تنظیمگری رسانهای نیز مدلهای هوش مصنوعی از جمله تدوین و تطبیق قوانین تنظیمگری، نظارت بر اجرای قوانین و کمک به تولیدکنندگان محتوا در تشخیص موارد عدم تطبیق میتواند مورد استفاده قرار گیرد.
رسانهای با ویژگیهای هوش مصنوعی نداریم
مدیر گروه امنیت فناوری سازمان پژوهشهای علمی و صنعتی ایران افزود: در حال حاضر رسانهای با ویژگیهای هوش مصنوعی نداریم، اما از ویژگیهای آن میتوان به قابلیت تولید محتوا به صورت خودکار یا نیمه خودکار، تولید یا تبدیل محتوای چندرسانهای، ارائه محتوا براساس نیاز کاربر از نظر لحن، سطح تخصصی، میزان جزئیات، راستیآزمایی خودکار، ارائه اطلاعات جانبی و افزونه، تعامل با کاربر از طریق چت یا مکالمه، تلفیق محتوا از منابع مختلف و تطبیق محتوا با قوانین اشاره کرد.
وی با اشاره به محدودیتهای فعلی هوش مصنوعی بیان کرد: در حال حاضر به صورت گسترده از قابلیتهای هوش مصنوعی در رسانهها استفاده نشده که جدید بودن فناوری و عدم شناخت عمومی از قابلیت آن، نواقص مدلهای هوش مصنوعی، عدم دسترسی یا هزینه بالای استفاده از مدلهای هوش مصنوعی، کمبود امکانات فنی و نیروی متخصص، محدودیت در محتویات چندرسانهای تولید شده توسط مدلهای هوش مصنوعی و نبود مقررات و زیرساختهای قانونی از دلایل عمده آن به شمار میرود. البته با از میان رفتن تدریجی این محدودیتها میتوان انتظار داشت که رسانهها شروع به استفاده از امکانات هوش مصنوعی کنند.
باصری با بیان اینکه نبود مقررات چالشی است که بسیار به آن اشاره شده است، گفت: در این زمینه سؤالات متعددی مطرح است، اینکه آیا رسانههای متعارف قابلیت رقابت با رسانههای مبتنی بر هوش مصنوعی را خواهند داشت، آیا همه یا اغلب رسانههای متعارف میتوانند خود را با تحولات فناوری ارتقا دهند و چه تفاوتهایی بین کاربرانی که از رسانههای هوشمند استفاده میکنند و آنهایی که از رسانههای متعارف استفاده میکنند، به وجود میآید؟
وی ادامه داد: جذابیت، تولید آسانتر محتوا، تعامل با کاربران، تطبیق بهتر محتوا با قوانین تنظیمگری و راستیآزمایی خودکار از مزایای رسانههای هوشمند نسبت به رسانههای متعارف است و از امتیازات رقابتی رسانههای متعارف میتوان به برند و اعتماد اشاره کرد.
در ادامه این نشست مریم سلیمی، مدرس ارتباطات با موضوع هوش مصنوعی و حریم خصوصی کاربران رسانه، به سخرانی پرداخت و گفت: ما به سمت هر چه هوشمندتر شدن میرویم و فناوریهای پوشیدنی بخشی از این پازل خواهند بود که در این نشست بررسی میکنیم که این هوشمندتر شدن، در حریم خصوصی ذهن ما چه تأثیری خواهد داشت.
وی تشریح کرد: ما در حال حاضر در رسانههای اجتماعی فعالیت داریم و همه پلتفرمهای ما توسط مالکانی که این بستر را در اختیار ما قرار دادهاند رصد میشود. اما در رسانههای اجتماعی محدودیت داریم. مثلاً اگر از چیزی خوشمان بیاید لایک میکنیم یا در نهایت کامنت میگذاریم اما وقتی به متاورس برسیم قرار است همه حواس ما درگیر شود یعنی هر کدام از حواس که اضافه میشود دیگر ابعاد بدن ما هم به این دادهها اضافه میشود و هر چهقدر دادهها بیشتر، امکان تحلیل بیشتر و امکان شناخت بیشتر فراهم میشود.
این استاد دانشگاه با اشاره به اینکه هشت فناوری قرار است در شکل گیری متاورس تأثیر بگذارد، گفت: واقعیت توسعه یافته، تعامل انسان و ماشین، بلاک چین، هوش مصنوعی، اینترنت اشیا، بینایی کامپیوتر، رایانش ابری و لبه و شبکههای موبایلی آینده این موارد هستند.
وی در مورد بینایی کامپیوتر گفت: بینایی کامپیوتر شامل روشهای مختلفی است که بنا به دستیابی تصاویر دیدن، پردازش و درک محتوای آنها این بستر را فراهم میکند. بیومتریک استفاده زیادی دارد از جمله در پزشکی و سینما و شناسایی چهره ما، اثرانگشت ما، دست ما، اسکن عنبیه و شبکیه ما، امضای ما و ... در آن مطرح است. حتی رگهای دست ما و نحوه راه رفتن ما هم منحصر به فرد است و میتواند در مسیر اهداف سیاسی، تبلیغاتی یا توسط شرکتها و سازمانهای مختلف استفاده شود.
سلیمی در مورد فناوری پوشیدنی نیز گفت: فناوری پوشیدنی بخش دیگری از این پازل است که ما داوطلبانه لباس هوشمند میپوشیم یا عینک هوشمند میزنیم یا از ساعت هوشمند و ... استفاده میکنیم. میخوابیم و ساعت هوشمند دست ما است و به ما میگوید چه قدر خوابیدهایم و چه قدر خواب ما عمیق بوده و اطلاعات دیگری که قرار است در این بستر ارائه شود. یعنی این ساعت از نزدیکترین فرد به ما هم نزدیکتر است و هر لحظه ما را رصد میکند.
وی ادامه داد: در اینترنت اشیا، همه اشیا قادر به اتصال به اینترنت هستند و در این شرایط زمینه برای انجام بسیاری امور فراهم میشود. میتوان تلویزیون را از راه دور خاموش کرد، برق اتو را قطع کرد و ... . قسمتهایی از این فناوری خوب است اما قطعا مشکلات دیگری خواهد داشت مثل اینکه همه وسایلی که به اینترنت وصل هستند قابلیت حک شدن دارند. این فناوری برای شرکتها منفعت زیادی دارد مثلاً یخچال من به شرکتی که آن را به من فروخته وصل است و به من اعلام میکند که عمر مفید یخچال دارد تمام میشود. با این ابزار من عملاً دارم اطلاعات خانه و اشیائم را به اشتراک میگذارم و حتی در سرویسهای بهداشتی، حمام و ... برای ارزیابی آخرین وضعیت سلامت بدن، نحوه کارکرد کلیه و ... میتواند مورد استفاده قرار گیرد.
وی تصریح کرد: همگرایی و اتحادهای بین تکنولوژیها در بسترها و حوزههای مختلف حلقه حریم خصوصی را تنگتر و تنگتر میکند. حال مسئله هوش مصنوعی را به این حلقه اضافه کنید و ببینید آیا چیزی از حریم خصوصی باقی میماند؟ پس هر چقدر همگراییها بیشتری میشود این حلقه تنگتر میشود.
سلیمی یک نگرانی در مورد هوش مصنوعی را رشد سریع آن عنوان و اظهار کرد: رشد هوش مصنوعی از سال 2022 شتاب عجیبی گرفته است و حتی کارشناسان این حوزه اعلام کردند که خیلی سریع در این مسیر حرکت میکنیم و نگرانی جدی این است که از هوش مصنوعی برای کارهای ویرانگر، غیر انسانی و غیر اخلاقی استفاده شود یا در مسیر انجام کارهای خوب به روشهای آسیبزا و مخرب متوسل شود و بزرگترین نگرانی این است که به ابرهوش تبدیل شده و بر هوش انسان برتری پیدا و خطراتی در این مسیر ایجاد کند.
وی در مورد چالشها و خطرات هوش مصنوعی، قرار گرفتن در اختیار تروریستها، استفاده توسط افراد متعصب و نژادپرست، قرار گرفتن در اختیار گروههای نژادی، دینی و ... خاص، تولید محتوای جعلی و دیپ فیکها، زیرپا گذاشتن کرامت انسانی و حریم خصوصی را برشمرد و گفت: یکی از دغدغههای جدی در خصوص هوش مصنوعی بستر اخلاقی و حریم شخصی افراد است که در توصیهنامهها و هر منشوری که نوشته میشود سعی میکنند این موضوع را مورد توجه قرار دهند.
این استاد دانشگاه تصریح کرد: هوش مصنوعی مثل چاقوی دولبه است که میتواند به عنوان یک راه حل امنیتی یا به عنوان یک سلاح توسط هکرها استفاده شود.
وی در خصوص تأثیر هوش مصنوعی بر حریم خصوصی گفت: تعریفهای مختلفی از این حریم وجود دارد. حریم خصوصی شامل قلمرو شخصی و خصوصی فرد، محل زندگی و اقامت، مکاتبات شخصی، شرافت و حیثیت و آبروی افراد میشود که به این لیست باید کلیه اطلاعات و دادههای شخصی افراد و ارتباطات در فضای واقعی و مجازی را نیز اضافه کرد. گونههای مختلفی از حریم خصوصی وجود دارد از جمله حریم خصوصی جسمانی، حریم خصوصی در منزل و اماکن، حریم خصوصی ارتباطاتی و حریم خصوصی اطلاعات و دادهها و ... .
سلیمی تشریح کرد: برای درک بیشتر حریم خصوصی باید رفتارها را بر سه بعد مختلف و به هم پیوسته تجزیه و تحلیل کرد که شامل بعد فیزیکی، روانی و دیجیتال است که اینها با هم در تعامل هستند. البته ما گاهی وقتها به خاطر اینکه سلسله نیازهای مازلو را تأمین کنیم مجبور هستیم که خودمان بخشی از حریم خصوصیمان را آزاد کنیم و در اختیار دیگران قرار دهیم.
وی در ادامه به اعلامیه حقوق بشر اشاره کرد و گفت: در این اعلامیه بر لزوم احترام به قلمرو خصوصی، خانواده، مکاتبات شخصی، شرافت و آبروی افراد و محل زندگی آنها اشاره و تاکید شده که هیچ احدی نمیتواند بدون مجوز وارد این حریم شود. حریم خصوصی یک حق اساسی است که برای استقلال و حفاظت از کرامت انسانی ضروری و مهم است و به عنوان یکی از ستونهای حقوق بشر است و نتیجه رعایت آن احساس امنیت و آرامش افراد یک جامعه است و در صورت رعایت نشدن میتواند موجب رنجش و وارد شدن صدمه به افراد شود.
سلیمی خاطرنشان کرد: در قانون اساسی کشور، قانون جرائم رایانهای و قانون مطبوعات نیز به این مسئله اشاره شده است. البته ما در این خصوص نیاز به قوانین جدید داریم و میتوانیم از تجارب کشورهای دیگر بهره بگیریم. اما باید توجه داشته باشیم قوانین مانع از نوآوری جدید درحوزه هوش مصنوعی نشود و در تصویب قوانین به سرعت توسعه و تحول هوش مصنوعی به عنوان یک ماشین یادگیرنده توجه شود.
وی با اشاره به اینکه حریم خصوصی حتی در فضای متاورس هم مورد توجه است، گفت: در فضای متاورس حریم شخصی جسمانی و فیزیکی، به یاری حباب حفاظتی در دنیا مورد توجه قرار گرفت و یکسری حباب تعریف شد تا بتوان فاصلهای ایجاد کرد تا کاربران مورد آزار جسمی و جنسی قرار نگیرند.
این استاد دانشگاه در خصوص حریم خصوصی ذهن نیز گفت: یکی از بحثهای جدی لزوم توانایی خصوصی نگه داشتن افکار و مصون بودن از دستکاری افکار و عدم مجازات شدن به خاطر افکار است. اتحادیه اروپا بر عدم نفوذ هوش مصنوعی به ذهن تأکید کرده است ولی از کاشت تراشههای مغزی، الکترودهای کاشتنی، کلاه، هدست و ... با هدف پزشکی استفاده میشود اما از سوی دیگر نگرانیهای عمیقی درست شده که کاشت تراشههای مغزی و دیگر ابزار مشابه که امکان ورود و نفوذ به ذهن را فراهم و سبب مشکلات جدی در حفظ حریم خصوصی شود.
سخنران بعدی این مراسم، اسماعیل کفاشی، مدرس دانشگاه با محور «هوش مصنوعی و آینده مشاغل رسانهای» بود.
وی با اشاره به سخنرانی مقام معظم رهبری در خصوص هوش مصنوعی، کوانتوم و اینترنت و تأکید ایشان مبنی بر توجه به این مسائل، گفت: هوش مصنوعی اکنون در نقطه مرجعیت است اما آیا هر چه میگوید درست است؛ قطعاً خیر. اگر با هوش مصنوعی تعامل داریم حتماً بخواهیم منابع را در اختیار ما قرار دهد. گهگاه پاسخهایی که دریافت میکنیم درست نیست و اگر به دنبال مراجع نرویم قطعاً دچار اشکال میشویم.
کفاشی موارد استفاده از هوش مصنوعی را تشریح کرد و گفت: مسئله مهم عدم آگاهی مردم از قدرت هوش مصنوعی است. اینکه با هوش مصنوعی در ارتباط باشیم برای ما جذاب است اما این جذابیت باعث میشود هر چه قدر تعامل با هوش مصنوعی بیشتر شود هوش مصنوعی قویتر شود و به جایی برسد که دیگر مثل ما فکر نمیکند بلکه برتر از ما فکر و عمل میکند.