Web Analytics Made Easy - Statcounter

شاید اگر در مورد سلامتی خود از هوش مصنوعی سوال کنید، بهتر از مراجعه به سایت‌های مربوط به اطلاعات دارو و درمان باشد، اما باید احتیاط کنید.

دانشمندان علوم کامپیوتر شاغل در گوگل و DeepMind(یک شرکت هوش مصنوعی) نسخه‌ای از یک برنامه پزشک بالینی هوش مصنوعی ارائه دادند که می‌تواند با توجه به شرایط و علائم داده شده، و بکارگیری یک مدل زبانی بزرگ به نام PaLM، بیماری را تشخیص دهد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

بر اساس پیش مقاله اصلی منتشر شده توسط این گروه، مدل آنها توانست در یک آزمون آزمایشی که حاوی سوالاتی از آزمون مجاز پزشکی ایالات متحده بود، و با توجه به ادعای آنها مبنی بر پیشرفت ۱۷ درصدی نرم‌افزارهای پیشرفته قبلی، ۶۷.۶٪ امتیاز کسب کند. نتیجه کار یک نسخه از این مدل، با کار پزشکان انسانی در یک سطح قرار داشت. اما هشدارهای زیادی در مورد این الگوریتم و موارد مشابه آن وجود دارد.

این مدل بر اساس مجموعه‌ای از اطلاعات که مبنی بر بیش از ۳۰۰۰ سوال پزشکی رایج جستجو شده (در اینترنت) و همچنین اطلاعات ۶ پایگاه داده باز مختص به پرسش و پاسخ‌های پزشکی، که شامل معاینات پزشکی و تحقیقات در مورد موارد پزشکی است، ترتیب داده شده است. محققان در مرحله آزمایشی، پاسخ‌های دریافتی از دو نسخه از هوش مصنوعی را با پزشکان انسان مقایسه کردند و این پاسخ‌ها را از نظر دقت، واقعی بودن، مرتبط بودن، مفید بودن، سازگاری با نظریات جامع علمی کنونی، ایمنی و جهت‌گیری بررسی کردند.

آدریانا پورتر فلت، که یک مهندس نرم‌افزار است و در گوگل کروم کار می‌کند و در این مطالعه شرکت نداشته است، در توییتر گفت که نسخه‌ای از این مدل که همانند پزشکان به سوالات پزشکی مشابهی پاسخ دهد، باید دارای یک ویژگی باشد که به آن اضافه شود و آن « تنظیم دستورالعمل است. این کار یک فرآیند انسانی است و از آنجایی که کاری پر زحمت است، ارزش این همه زحمت را ندارد». این شامل اصلاح دقیق عبارات پرسش‌هاست که به روش خاصی هستند و به هوش مصنوعی اجازه می‌دهد تا اطلاعات صحیح را بازیابی کند.

محققان در این مقاله نوشتند که: «این مدل به طرز دلگرم کننده‌ای عمل می‌کند، اما هنوز در سطح پایین‌تری نسبت به پزشکان قرار دارد.» و اینکه: «درک این مدل در زمینه پزشکی، بازیابی و یادآوری دانش و استدلال پزشکی، با مدل تحقیقاتی و تنظیم سریع دستورالعمل‌ها بهبود خواهد یافت.» مثلا هر نسخه از هوش مصنوعی در مقایسه با پاسخ‌های انسانی، اطلاعات مهمی را از دست داده بود و شامل محتوای نادرست و نامناسبی بود.

مدل‌های گفتاری در حال بهتر شدن در توانایی تجزیه اطلاعات پیچیده هستند. و به نظر می‌رسد که آنها با وظایفی که نیاز به دانش و استدلال علمی دارند، خوب عمل می‌کنند. چندین مدل کوچک از جمله SciBERT و PubMedBERT برای درک متونی که مملو از اصطلاحات تخصصی هستند، مرزهای مدل‌های زبانی را جابجا کرده‌اند.

اما در زمینه‌های زیست پزشکی و علمی، عوامل پیچیده و ناشناخته بسیار زیادی وجود دارند. و اگر هوش مصنوعی اشتباه کند چه کسی مسئولیت آن را به عهده خواهد گرفت؟ از آنجایی که اطلاعات بسیاری از الگوریتم‌ها مانند یک جعبه سیاه کار می‌کند، آیا می‌توان منبع خطا را شناسایی و آن را ردیابی کرد؟ علاوه بر این، الگوریتم‌ها(که شامل دستورالعمل‌های ریاضی هستند که توسط برنامه‌نویسان به کامپیوتر داده می‌شوند)، ناقص هستند و نیاز به داده‌های آموزشی کامل و صحیح دارند که این موضوع در هر شرایط و در همه جا در دسترس نخواهد بود. به علاوه خرید و سازماندهی داده‌های مرتبط با سلامت می‌تواند گران باشد.

پاسخ صحیح به پرسش‌های یک آزمون استاندارد چندگزینه‌ای، نشانه هوش نیست. و ممکن است توانایی تحلیلی کامپیوتر، در مواجه با یک مورد پزشکی بالینی در دنیای واقعی، بسیار پایین باشد. بنابراین با اینکه این آزمایش‌ها از نظر تئوری جالب به نظر می‌رسند، اما هنوز بیشتر این هوش‌های مصنوعی‌ آمادگی لازم را ندارند تا به طور کامل بکار گرفته شوند. پروژه سلامت هوش مصنوعی IBM‌واتسون را در نظر بگیرید. این پروژه با وجود میلیون‌ها دلار سرمایه‌گذاری، همچنان مشکلات متعددی داشت و به اندازه کافی کاربردی و انعطاف‌پذیر نبود و نهایتا تجزیه و اجزاء آن فروخته شدند.

گوگل و DeepMind به خوبی محدودیت‌های این فناوری را می‌شناسند. آنها در مقاله خود نوشتند برای اینکه این مدل واقعا مفید باشد باید در برخی از زمینه‌ها توسعه و بهبود پیدا کنند. زمینه‌هایی نظیر یافتن پاسخ‌ها در منابع معتبر و به روز پزشکی، و توانایی تشخیص و برقراری ارتباط موثر و مفید با بیمار یا پزشک معالج.

منبع: ایران اکونومیست

کلیدواژه: هوش مصنوعی پاسخ ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت iraneconomist.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایران اکونومیست» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۶۸۳۹۶۲۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی ChatGPT دادگاهی می‌شود!

 به گزارش تابناک، استارتاپ OpenAI که با حمایت مایکروسافت فعالیت می‌کند، هدف شکایت یک گروه طرفدار حقوق بشر به نام NOYB قرار گرفت. این شکایت به‌دلیل اصلاح‌نشدن اطلاعات اشتباهی است که توسط دستیار هوش مصنوعی ChatGPT تولید می‌شود.

شاکی پرونده که فردی شناخته‌‌شده است، از چت جی‌‌پی‌تی در مورد تاریخ تولدش سؤال کرده است، اما این دستیار هوش مصنوعی به‌جای اعلامِ در دسترس نبودن اطلاعات لازم، بارها اطلاعات اشتباه ارائه کرد.

NOYB می‌گوید OpenAI درخواست شاکی برای اصلاح یا حذف داده‌ها را رد کرده و مدعی شده است که امکان اصلاح اطلاعات وجود ندارد.

OpenAI همچنین از افشای هر گونه اطلاعات در مورد داده‌های پردازش‌‌شده، منابع و دریافت‌کنندگان آن خودداری کرده است.

NOYB اعلام کرده که شکایتی را به مقامات مسئول حفظ حریم خصوصی در اتریش ارائه کرده و از آن‌ها خواسته است تا فرایند پردازش داده توسط OpenAI و اقدامات انجام‌‌شده برای اطمینان از صحت داده‌های شخصی پردازش‌‌شده توسط مدل‌های زبان بزرگ این شرکت را مورد بررسی قرار دهند.

 
وکیل NOYB در بیانیه‌ای گفت: «کاملاً واضح است که شرکت‌ها در حال حاضر قادر نیستند چت‌بات‌هایی مانند چت‌ جی‌پی‌تی را با قوانین اتحادیه‌ی اروپا در زمینه‌ی پردازش داده‌های افراد مطابقت دهند.» او در ادامه گفت: «اگر یک سیستم نتواند نتایج دقیق و شفافی تولید کند، نمی‌توان از آن برای تولید داده در مورد افراد استفاده کرد. این فناوری باید مطابق با الزامات قانونی باشد، نه برعکس.»

دیگر خبرها

  • چرا ارتش‌ها نمی‌توانند به هوش مصنوعی اعتماد کند؟
  • چرا ارتش‌ها نمی‌تواند به هوش مصنوعی اعتماد کند؟
  • سامانه پیش‌بینی نقطه‌ای وضع هوا، قابل رقابت با نمونه‌های مشابه خارجی است
  • چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری کنیم؟
  • اوسمار: انقدر سپاهان را نبردیم که به بردنش نزدیک شدیم |‌ پاسخ سرمربی برزیلی به کری‌خوانی نورافکن
  • تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط
  • پیش بینی آرتروز ۸ سال زودتر، با هوش مصنوعی و یک آزمایش خون
  • محققان: با هوش مصنوعی می‌توان آرتروز را ۸ سال زودتر پیش‌بینی کرد
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • هوش مصنوعی ChatGPT دادگاهی می‌شود!