تاریخ انتشار : یکشنبه 28 خرداد 1402 - 6:21
58 بازدید
کد خبر : 3709

ما در حباب تکنولوژیک زندگی می‌کنیم؛ انسان امروزی سایبورگ است

ما در حباب تکنولوژیک زندگی می‌کنیم؛ انسان امروزی سایبورگ است

استادیار فلسفه علم پژوهشگاه علوم انسانی و مطالعات فرهنگی با بیان این‌که ما امروز در حباب تکنولوژیک زندگی می‌کنیم، گفت: ما انسان خالص و طبیعی که در کتاب قانون وجود داشت و با اخلاط چهارگانه می‌توانسیتم آن را درمان کنیم، نیستیم. انسان امروز سایبورگ است و موبایل و دیگر تکنولوژی‌ها جزئی از انسان است. به

استادیار فلسفه علم پژوهشگاه علوم انسانی و مطالعات فرهنگی با بیان این‌که ما امروز در حباب تکنولوژیک زندگی می‌کنیم، گفت: ما انسان خالص و طبیعی که در کتاب قانون وجود داشت و با اخلاط چهارگانه می‌توانسیتم آن را درمان کنیم، نیستیم. انسان امروز سایبورگ است و موبایل و دیگر تکنولوژی‌ها جزئی از انسان است. به همین دلیل درمان بدون در نظر گرفتن تکنولوژی امکان‌پذیر نیست.

به گزارش ایسنا، دکتر علیرضا منجمی در وبینار «هوش مصنوعی و ملاحظات اخلاقی آن در نظام سلامت» که توسط مرکز تحقیقات اخلاق و تاریخ پزشکی  و با مشارکت کمیسیون ملی یونسکو ایران برگزار شد، گفت: وضعیت‌هایی که «خودفهمی» ما را از وضعیت انسانی ما به چالش می‌کشد، جایی است که در آن پرسش‌های فلسفی مهم می‌شود. هوش مصنوعی چنین وضعیتی است و خودفهمی ما را به چالش کشیده است.

وی با بیان این‌که برای بررسی تاثیرات هوش مصنوعی باید بین ریسک و خطر تمایز قائل شد، گفت: وقتی می‌گوییم چیزی خطرناک است یعنی به ما آسیب می‌رساند، ولی وقتی می‌گوییم ریسک دارد یعنی احتمال این‌که به ما سود برساند، وجود دارد. در مورد استفاده از هوش مصنوعی می‌گوییم که استفاده از آن ریسک دارد و به این معنی نیست که خطرناک است.

هوش مصنوعی چه ریسک‌هایی به همراه دارد؟

استادیار پژوهشگاه علوم انسانی و مطالعات فرهنگی در مورد ریسک‌های هوش مصنوعی خاطر نشان کرد: به دلیل این‌که این تکنولوژی همواره در حال تغییر است ممکن است هر لحظه ریسک‌های آن نیز متفاوت باشد. آخرین ریسک‌های هوش مصنوعی در حال حاضر را مرکز ایمنی هوش مصنوعی یا Center for AI Safety آخرین ریسک‌های هوش مصنوعی را فهرست کرده است.

وی در مورد این ریسک‌ها توضیح داد: یکی از این ریسک‌ها این است که احتمال این وجود دارد که هوش مصنوعی به سلاح تبدیل شود و این در حوزه پزشکی اهمیت زیادی دارد. ریسک دیگر این است که هوش مصنوعی اطلاعات غلط به ما بدهد و این از آن جهت اهمیت دارد که این اطلاعات غلط را چگونه باید تشخیص داد و خطا را چه کسی باید اطلاع دهد؟

منجمی با بیان این‌که یکی از خطرات هوش مصنوعی تغییر ارزش‌ها و اهداف است، گفت: سومین خطر هوش مصنوعی آن است که این سیستم‌ها به مرور ارزش‌ها و اهدافی را به ما ارائه کنند و به مرور ارزش‌ها و اهداف را تغییر دهند. مثل رفتارهایی که افراد در پلتفرم‌های اجتماعی انجام می‌دهند که خیلی رادیکال است در صورتی که ممکن است در دنیای واقعی افراد رادیکالی نباشند.

وی یکی از خطرات دیگر را تضعیف‌سازی دانست و گفت: وقتی وظایف را از دوش انسان‌ها برمی‌داریم، انسان‌ها ناتوان می‌شوند. مثل دستخط افراد که الان که همه تایپ می‌کند، به تدریج بدتر شده است. همچنین این‌که داده‌ها در انحصار چند کمپانی بزرگ است نیز یکی دیگر از خطرات است.

استادیار پژوهشگاه علوم انسانی و مطالعات فرهنگی با بیان این‌که هوش مصنوعی ممکن است اهداف و ارزش‌های جدیدی را تولید کند، گفت: تکنولوژی چند ویژگی دارد. تکنولوژی بی‌قرار است و خودکار است و هیچ راهی وجود ندارد که بتوان متوقفش کرد ولی این به آن معنی نیست که ارزش‌های تکنولوژی را بپذیریم. فریبکاری و خطرهای قدرت طلبانه  نیز از دیگر خطرات این تکنولوژی هستند.

ما در حباب تکنولوژیک زندگی می‌کنیم

منجمی، مواجهه تکنولوژی و پزشکی را بسیار با اهمیت دانست و گفت: ما انسان خالص و طبیعی که در کتاب قانون وجود داشت و با اخلاط چهارگانه می‌توانسیتم آن را درمان کنیم، نیستیم. انسان امروز سایبورگ است و موبایل و دیگر تکنولوژی‌ها جزئی از انسان است. به همین دلیل درمان بدون در نظر گرفتن تکنولوژی امکان‌پذیر نیست.

وی با بیان این‌که با وجود هوش مصنوعی خیلی از تعاریف تغییر می‌کند، گفت: در مورد مسائلی مثل تعریف سلامت و بیماری باید مجدد فکر کنیم. اگر قرار است به سمت پزشکی شخصی برویم، تعریف بیماری و سلامت تغییر می‌کند. «طبیعی» خیلی معنا پیدا نمی‌کند، چرا که ما در حباب تکنولوژیک زندگی می‌کنیم. موضوع استفاده از هوش مصنوعی رابطه پزشک و بیمار را نیز تغییر می‌دهد. معنی زیست ما را تغییر می‌دهد و درک ما را از بدن تغییر می‌دهد.

وی افزود: بخشی از مشکلات مربوط به مسائل حقوقی و اخلاقی است که دچار تغییر می‌شود. در مورد استدلال‌های پزشکی، در مورد تبیین و علیت مجدد باید فکر کرد.

منجمی با اشاره به این‌که هم‌بستگی نمی‌تواند نشان‌دهنده علیت باشد، گفت: اگر ایده یا فرضیه‌ای پشت فرضیه نباشد، تحلیل یافته‌ها هیچ معنایی ندارد. برای تحلیل یافته‌ها نیاز به چارچوب و الگو است و نباید مقهور حجم زیاد دیتا شویم. به همین دلیل نیازمند تعامل فلسفه پزشکی و فلسفه تکنولوژی هستیم.

وی خاطر نشان کرد: سواد تکنولوژی اهمیت زیادی دارد که همه شهروندان، پزشکان و سیاست‌گذاران نیاز است آن را بدانند و فهم عام از تکنولوژی و ارزیابی نقادانه تکنولوژی بسیار مهم است. اینکه می‌گویند تکنولوژی یک ابزار است که می‌توان از آن استفاده خوب یا بد کرد، در مورد هوش مصنوعی این‌گونه نیست. برای مثال سازندگان دارو متعهد به تولید دارو هستند و در مورد عوارض و نحوه مصرف و … در راهنمای دارو  نکاتی وجود دارد. ولی مثلاً  نور آبی موبایل باعث بی‌خوابی می‌شود، اما در کدام دفترچه موبایل چنین چیزی نوشته شده است؟

انتهای پیام

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.