هوش مصنوعی (AI) طیف وسیعی از فناوریها را پوشش میدهد که پتانسیل بالایی را ارائه میکنند و نگرانیهایی از جمله نگرانیهای اخلاقی را ایجاد میکنند. برخی از اینها برای هر فناوری جدید اعمال می شود. مزایای بالقوه توجیهات اخلاقی را برای هوش مصنوعی فراهم می کند، اما در مورد خطرات و آسیب های احتمالی چطور؟ چگونه میتوانیم آسیبهای ناشناخته، بهویژه معضلات «استفاده دوگانه» را که در آن هوش مصنوعی مفید برای استفادههای مضر ربوده شود، ارزیابی کنیم؟ سایر مسائل اخلاقی مربوط به داده های مورد استفاده در هوش مصنوعی است. یادگیری ماشینی پتانسیل پردازش حجم عظیمی از دادهها را ارائه میدهد که میتوان از آن در کاهش خطر بلایا، برنامهریزی و هدایت واکنشهای بلایا استفاده خوبی کرد. با این حال، کیفیت خروجی به کیفیت داده های ورودی بستگی دارد. چه مسئولیت های اخلاقی برای نظارت بر کیفیت داده ها اعمال می شود؟ چگونه از حریم خصوصی و محرمانه بودن چنین دادههایی محافظت میشود، بهویژه اگر برای فجایع در درگیری یا تنظیمات ناامن استفاده شود؟ اگر داده ها تحت تأثیر نابرابری ها قرار گیرند، یا خروجی برای انگ زدن یا تبعیض استفاده شود، چه؟ این ارائه به بررسی این و سایر مسائل اخلاقی در زمینه هوش مصنوعی و بلایا می پردازد.
منبع:
O’Mathúna DP. Ethics of Artificial Intelligence in Disaster Medicine. Disaster Medicine and Public Health Preparedness. 2024;18:e155. doi:10.1017/dmp.2024.238
دیدگاه خود را بنویسید