هوش مصنوعی (AI) طیف وسیعی از فناوری‌ها را پوشش می‌دهد که پتانسیل بالایی را ارائه می‌کنند و نگرانی‌هایی از جمله نگرانی‌های اخلاقی را ایجاد می‌کنند. برخی از اینها برای هر فناوری جدید اعمال می شود. مزایای بالقوه توجیهات اخلاقی را برای هوش مصنوعی فراهم می کند، اما در مورد خطرات و آسیب های احتمالی چطور؟ چگونه می‌توانیم آسیب‌های ناشناخته، به‌ویژه معضلات «استفاده دوگانه» را که در آن هوش مصنوعی مفید برای استفاده‌های مضر ربوده شود، ارزیابی کنیم؟ سایر مسائل اخلاقی مربوط به داده های مورد استفاده در هوش مصنوعی است. یادگیری ماشینی پتانسیل پردازش حجم عظیمی از داده‌ها را ارائه می‌دهد که می‌توان از آن در کاهش خطر بلایا، برنامه‌ریزی و هدایت واکنش‌های بلایا استفاده خوبی کرد. با این حال، کیفیت خروجی به کیفیت داده های ورودی بستگی دارد. چه مسئولیت های اخلاقی برای نظارت بر کیفیت داده ها اعمال می شود؟ چگونه از حریم خصوصی و محرمانه بودن چنین داده‌هایی محافظت می‌شود، به‌ویژه اگر برای فجایع در درگیری یا تنظیمات ناامن استفاده شود؟ اگر داده ها تحت تأثیر نابرابری ها قرار گیرند، یا خروجی برای انگ زدن یا تبعیض استفاده شود، چه؟ این ارائه به بررسی این و سایر مسائل اخلاقی در زمینه هوش مصنوعی و بلایا می پردازد.

منبع:

O’Mathúna DP. Ethics of Artificial Intelligence in Disaster Medicine. Disaster Medicine and Public Health Preparedness. 2024;18:e155. doi:10.1017/dmp.2024.238