تاریخ انتشار : یکشنبه 28 خرداد 1402 - 6:21
162 بازدید
کد خبر : 3711

استفاده از هوش مصنوعی برای ارزیابی پژوهش‌ها

استفاده از هوش مصنوعی برای ارزیابی پژوهش‌ها

استادیار مرکز تحقیقات اخلاق و تاریخ پزشکی دانشگاه علوم پزشکی تهران به کاربرد هوش مصنوعی در فراپژوهش‌ و ارزیابی پژوهش‌ها پرداخت. به گزارش ایسنا، دکتر حمیدرضا نمازی در وبینار «هوش مصنوعی و ملاحظات اخلاقی آن در نظام سلامت»  که توسط مرکز تحقیقات اخلاق و تاریخ پزشکی  و با مشارکت کمیسیون ملی یونسکو ایران برگزار شد، در مورد

استادیار مرکز تحقیقات اخلاق و تاریخ پزشکی دانشگاه علوم پزشکی تهران به کاربرد هوش مصنوعی در فراپژوهش‌ و ارزیابی پژوهش‌ها پرداخت.

به گزارش ایسنا، دکتر حمیدرضا نمازی در وبینار «هوش مصنوعی و ملاحظات اخلاقی آن در نظام سلامت»  که توسط مرکز تحقیقات اخلاق و تاریخ پزشکی  و با مشارکت کمیسیون ملی یونسکو ایران برگزار شد، در مورد نقش هوش مصنوعی در پژوهش و پژوهش‌های پزشکی، گفت: یکی از موضوعات مهم در حوزه پژوهش «متاریسرچ» است. متاریسرچ؛ انجام پژوهش راجع به پژوهش است و برخی فلسفه پژوهش نیز به آن اتلاق می‌کنند. همچنین «فرا پژوهش» نیز به آن می‌گویند که در آن به روش‌ها، ارزیابی پژوهش‌ها و مشوق‌های پژوهش و… پرداخته می‌شود.

وی با بیان این‌که فرا پژوهش به دنبال ایجاد دوگانه‌سازی و زیر سوال بردن پژوهش‌ها نیست، خاطر نشان کرد: هدف فراپژوهش این است که پژوهش‌ها را نقد کند و به دنبال تقویت دانش است.

استادیار مرکز تحقیقات اخلاق و تاریخ پزشکی دانشگاه علوم پزشکی تهران با اشاره به این‌که چهار تلقی از فرا پژوهش وجود دارد، گفت: اولین تلقی بحث اخلاق در پژوهش است که به کمیته‌های اخلاق در پژوهش انجامیده و به بوروکراسی، تعارض منافع می‌پردازد. اخلاق در پژوهش نگاه توریستی به روش پژوهش دارد و در برابر پژوهش‌های بیهوده سکوت کرده است.

وی ادامه داد: دومین تلقی فراپژوهش در مورد نقد روش‌شناختی و فرآیندی پژوهش‌ها است و در آن به بحران تکرارپذیری و این‌که در برخی رشته‌ها مثل پزشکی، روان‌پزشکی و … وقتی پژوهش‌ها تکرار می‌شوند، نتیجه‌های متفاوت به دست می‌آید. همچنین این رویکرد به نقد مفهوم «معناداری»، تصادفی‌سازی، مطالعات کیفی، مساله انتشار و مجلات و عقب‌ماندگی تکنولوژیک پرداخته می‌شود. در این رویکرد حیله‌های پژوهشی نیز بررسی می‌شوند.

نمازی در مورد تلقی سوم فراپژوهش، توضیح داد: این رویکرد به فلسفه علم و مطالعات علم به فراپژوهش می‌پردازد و مسائلی مانند مسئله بررسی همتایان (peer review) و جامعه علمی را بررسی می‌کند و به نهاد علم، جامعه‌شناسی علم می‌پردازد. رویکرد چهارم نیز در مورد تحلیل زمینه‌ها و اثرات اجتماعی، فرهنگی پژوهش‌ها است و مسائلی مانند تاثیر پژوهش بر پژوهشگر، عمومی‌سازی پژوهش، پژوهش‌های بیهوده و … می‌پردازد.

وی به استفاده از هوش مصنوعی در فراپژوهش پرداخت و گفت: کاربست هوش‌مصنوعی در فراپژوهش دارای فرصت‌ها و تهدیداتی است. هوش پتانسیل زیادی در انتشار و ترجمه دارد. در آینده تقریبا شخصی به عنوان مؤلف و مترجم و … نخواهیم داشت. همچنین هوش مصنوعی می‌تواند اصالت مقاله را بررسی کند. می‌توان از آن در بررسی همتا (peer review)، ویرایش، ساینتومتریک و … پژوهش کمک گرفت. برخی نشریات به این سمت رفته‌اند که بررسی همتای انسانی را حذف کنند.

استادیار مرکز تحقیقات اخلاق و تاریخ پزشکی دانشگاه علوم پزشکی تهران با بیان این‌که کاربست هوش‌مصنوعی در فراپژوهش تهدیداتی نیز دارد، توضیح داد: هوش مصنوعی پتانسیل زیادی در ریسک و bias و خطا دارد. حجم زیادی دیتا در دنیا وجود دارد، ولی چون در این دیتاها پیش‌فرض داشته است، ارزیابی هوش مصنوعی از آن نیز درگیر همان پیش‌فرض‌ها می‌شود.

وی تصریح کرد: برای مثال به دلیل این پیش فرض که سیاه‌پوستان بیشتر مرتکب جرایم می‌شوند، در مناطقی که سیاه‌پوستان زندگی می‌کنند نیز دوربین‌های بیشتری وجود دارد و بنابراین حجم عظیمی از داده‌ها در مورد آن وجود دارد. بنابراین وقتی همین داده‌ها را به هوش مصنوعی می‌دهیم، همان خطا را خواهد داشت.

نمازی ادامه داد: مسائل زیست‌محیطی نیز در تهدیدات هوش مصنوعی خیلی مهم است. برای مثال مدل‌های AI حجم زیادی انرژی مصرف می‌کند. یکی دیگر از چالش‌ها این است که هوش مصنوعی خودبسنده می‌شود و حوزه‌های جدید ایجاد می‌کند.

وی با بیان این‌که از دیگر چالش‌ها این است که نمی‌توان گفت بار حقوقی خطای هوش مصنوعی به عهده چه کسی است، به ملاحظات اخلاقی هوش مصنوعی اشاره کرد و گفت: مسائلی مانند توضیح‌پذیری و تفسیرپذیری، ارتباط علیت و هم‌بستگی، خطا و بایوس هوش مصنوعی، پرایوسی و حریم شخصی و دیپ فیک که مفهوم اعتماد را در جامعه از بین می‌برد (به‌ویژه در پژوهش‌هایی که مبتنی بر تصاویر هستند) از ملاحظات اخلاقی حوزه هوش مصنوعی است.

استادیار مرکز تحقیقات اخلاق و تاریخ پزشکی دانشگاه علوم پزشکی تهران به عقب‌ماندگی سیستم‌های قانونی از هوش مصنوعی پرداخت و گفت: سیستم‌های قانونی تا بخواهند فکر کنند که هوش مصنوعی چیست و بخواهند برای آن قانون‌گذاری کنند، هوش مصنوعی به حدی پیشرفت می‌کند که نمی‌توانند به گرد پای آن نیز برسند. به همین دلیل افرادی که در زمینه اخلاق کار می‌کنند، باید به این زمنیه‌ها بپردازند.

انتهای پیام

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.