ایزو/آیایسی تیآر 24028 (ISO/IEC TR 24028:2020): مروری بر هوش مصنوعی قابل اعتماد
نام انگلیسی استاندارد (گزارش فنی): ISO/IEC TR 24028:2020 Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence
نام فارسی استاندارد (گزارش فنی): ایزو/آیایسی تیآر ۲۴۰۲۸:۲۰۲۰ فناوری اطلاعات – هوش مصنوعی – مروری بر قابلیت اعتماد در هوش مصنوعی
هوش مصنوعی (AI) به سرعت در حال دگرگون سازی صنایع، خدمات و جنبههای مختلف زندگی روزمره ما است. با افزایش قابلیتها و نفوذ سیستمهای هوش مصنوعی، نگرانیها در مورد قابلیت اعتماد (Trustworthiness)، اخلاق و پیامدهای اجتماعی آنها نیز افزایش یافته است. گزارش فنی ISO/IEC TR 24028:2020 که توسط کمیته مشترک فنی ISO و IEC (ISO/IEC JTC 1) و زیرکمیته SC 42 (هوش مصنوعی) تهیه شده، یک سند بنیادین و راهنما است که مروری جامع بر مفاهیم، اصول، چالشها و ملاحظات کلیدی مرتبط با هوش مصنوعی قابل اعتماد ارائه میدهد.
مقدمهای بر هوش مصنوعی قابل اعتماد (Trustworthy AI)
هوش مصنوعی قابل اعتماد به سیستمهای AI اشاره دارد که به گونهای طراحی، توسعه، پیادهسازی و مورد استفاده قرار میگیرند که با ارزشهای انسانی و اصول اخلاقی همسو بوده، قوی (Robust)، ایمن، منصفانه، شفاف و پاسخگو باشند. هدف از توسعه هوش مصنوعی قابل اعتماد، ایجاد اطمینان در کاربران، ذینفعان و جامعه نسبت به عملکرد و نتایج سیستمهای AI و به حداقل رساندن خطرات و آسیبهای بالقوه آنها است.
اهمیت هوش مصنوعی قابل اعتماد از جنبههای مختلفی قابل بررسی است:
پذیرش و اعتماد کاربر: کاربران تنها در صورتی به سیستمهای AI اعتماد کرده و از آنها استفاده خواهند کرد که مطمئن باشند این سیستمها به طور قابل اعتماد، منصفانه و ایمن عمل میکنند.
کاهش خطرات و آسیبها: سیستمهای AI غیرقابل اعتماد میتوانند منجر به تبعیض، نقض حریم خصوصی، خطاهای پرهزینه و حتی آسیبهای فیزیکی شوند.
انطباق با مقررات: با توجه به رشد سریع AI، چارچوبهای قانونی و نظارتی در حال ظهور هستند که سازمانها را ملزم به رعایت اصول هوش مصنوعی قابل اعتماد میکنند (مانند قانون هوش مصنوعی اتحادیه اروپا - EU AI Act).
مسئولیتپذیری و حکمرانی: ایجاد چارچوبهایی برای پاسخگویی در قبال تصمیمات و اقدامات سیستمهای AI ضروری است.
نوآوری پایدار: تمرکز بر قابلیت اعتماد، نوآوری در حوزه AI را به سمتی هدایت میکند که منافع بلندمدت جامعه را در نظر بگیرد.
گزارش فنی ISO/IEC TR 24028:2020 چیست؟
ISO/IEC TR 24028:2020 یک "گزارش فنی" (Technical Report - TR) است. مهم است که تفاوت بین یک گزارش فنی و یک استاندارد الزامات (مانند ISO 9001) را درک کنیم.
استانداردهای الزامات (Requirements Standards): مشخصات و الزاماتی را ارائه میدهند که یک محصول، فرآیند یا سیستم باید آنها را برآورده کند. این استانداردها قابل ممیزی هستند و میتوان بر اساس آنها گواهینامه انطباق صادر کرد.
گزارشهای فنی (Technical Reports - TRs): اسناد اطلاعاتی هستند که دادهها یا راهنماییهایی متفاوت از آنچه معمولاً در یک استاندارد بینالمللی منتشر میشود، ارائه میدهند. TRها حاوی اطلاعاتی مانند وضعیت فعلی دانش فنی، راهنمایی برای پیادهسازی استانداردها، یا مرور کلی یک حوزه خاص هستند. TRها الزامات قابل ممیزی برای صدور گواهینامه ارائه نمیدهند.
بنابراین، ISO/IEC TR 24028:2020 یک سند راهنما است که:
مروری جامع بر جنبههای مختلف قابلیت اعتماد در هوش مصنوعی ارائه میدهد.
مفاهیم کلیدی مرتبط با هوش مصنوعی قابل اعتماد را تعریف و تشریح میکند.
چالشها، خطرات و فرصتهای مرتبط با توسعه و استقرار سیستمهای AI قابل اعتماد را بررسی میکند.
چارچوبها و رویکردهای موجود برای دستیابی به قابلیت اعتماد در AI را معرفی میکند.
به عنوان یک نقطه مرجع مشترک برای ذینفعان مختلف (توسعهدهندگان، کاربران، سیاستگذاران، نهادهای استانداردسازی) عمل میکند.
این گزارش فنی به سازمانها کمک میکند تا درک بهتری از پیچیدگیهای هوش مصنوعی قابل اعتماد پیدا کرده و زمینه را برای توسعه استراتژیها و پیادهسازی سیستمهای AI مسئولانه فراهم کنند. به نقل از وبسایت ISO (iso.org)، این گزارش فنی با هدف "ارائه درک مشترک از قابلیت اعتماد در AI و شناسایی حوزههایی که نیاز به استانداردسازی بیشتر دارند" تهیه شده است.
خانواده و استانداردهای مرتبط (اکوسیستم استانداردهای AI)
ISO/IEC TR 24028 بخشی از مجموعه گستردهتری از استانداردها و گزارشهای فنی است که توسط ISO/IEC JTC 1/SC 42 (کمیته فنی مشترک ۱ سازمان بینالمللی استانداردسازی و کمیسیون بینالمللی الکتروتکنیک، زیرکمیته ۴۲ در حوزه هوش مصنوعی) در حال توسعه است. این زیرکمیته مسئولیت توسعه استانداردهای بینالمللی برای هوش مصنوعی را بر عهده دارد و یک اکوسیستم کامل از استانداردها را برای پوشش جنبههای مختلف AI ایجاد میکند.
برخی از استانداردهای کلیدی و مرتبط با ISO/IEC TR 24028 در این اکوسیستم عبارتند از:
ISO/IEC 22989:2022: فناوری اطلاعات – هوش مصنوعی – مفاهیم و واژگان هوش مصنوعی. (Artificial intelligence concepts and terminology)
این استاندارد یک واژهنامه جامع و مشترک برای مفاهیم کلیدی AI ارائه میدهد که برای درک سایر استانداردها ضروری است.
ISO/IEC 23053:2022: چارچوبی برای سیستمهای هوش مصنوعی (AI) با استفاده از یادگیری ماشین (ML). (Framework for Artificial Intelligence (AI) Systems Using Machine Learning (ML))
ISO/IEC 23894:2023: فناوری اطلاعات – هوش مصنوعی – مدیریت ریسک. (Artificial intelligence — Risk management)
این استاندارد راهنماییهایی برای مدیریت ریسکهای مرتبط با سیستمهای AI ارائه میدهد که برای قابلیت اعتماد حیاتی است.
ISO/IEC 42001:2023: فناوری اطلاعات – هوش مصنوعی – سیستم مدیریت. (Artificial intelligence — Management system)
این یک استاندارد سیستم مدیریتی قابل گواهی شدن است که الزاماتی را برای ایجاد، پیادهسازی، نگهداری و بهبود مستمر یک سیستم مدیریت هوش مصنوعی (AIMS) در سازمانها ارائه میدهد. TR 24028 میتواند به عنوان یک منبع اطلاعاتی مفید برای پیادهسازی AIMS عمل کند.
ISO/IEC TR 24027:2021: فناوری اطلاعات – هوش مصنوعی – مسائل مربوط به سوگیری (Bias) در سیستمهای هوش مصنوعی و تصمیمگیری مبتنی بر هوش مصنوعی. (Bias in AI systems and AI aided decision making)
ISO/IEC TR 24029-1:2021: هوش مصنوعی (AI) – ارزیابی عملکرد طبقهبندی سیستمهای هوش مصنوعی – بخش ۱: اصول و مفاهیم کلی. (Assessment of the robustness of neural networks — Part 1: Overview) (توجه: این ممکن است به سمت ISO/IEC 12207 متمایل باشد یا نسخههای جدیدتر آن مانند سری ISO/IEC/IEEE 29119 برای تست نرمافزار و ISO/IEC 5055 برای کیفیت نرمافزار) – نیاز به بررسی دقیقتر شماره استانداردها برای بحث استحکام (Robustness) وجود دارد، اما به طور کلی استانداردهایی برای کیفیت و تست نرمافزار به استحکام AI کمک میکنند. به طور خاص برای استحکام شبکههای عصبی: ISO/IEC TR 24029-1:2021 Artificial intelligence (AI) — Assessment of the robustness of neural networks — Part 1: Overview و ISO/IEC AWI TS 6254 (Robustness of artificial intelligence systems).
ISO/IEC 5338:2023: فناوری اطلاعات – هوش مصنوعی – فرآیندهای چرخه عمر سیستم هوش مصنوعی. (Information technology — Artificial intelligence — AI system life cycle processes)
استانداردهای مرتبط با اخلاق و حکمرانی داده: مانند سری ISO/IEC 27000 برای امنیت اطلاعات و سری ISO/IEC 29100 برای چارچوب حریم خصوصی.
ISO/IEC TR 24028 به عنوان یک سند "مرور کلی" (Overview)، زمینه را برای درک بهتر و استفاده از این استانداردهای تخصصیتر فراهم میکند.
مفاهیم و خصوصیات کلیدی هوش مصنوعی قابل اعتماد مطرح شده در ISO/IEC TR 24028
گزارش فنی ISO/IEC TR 24028 به بررسی چندین خصوصیت (Characteristics) یا جنبه (Aspects) کلیدی میپردازد که برای دستیابی به هوش مصنوعی قابل اعتماد ضروری هستند. اگرچه این TR خود الزامات دقیقی را مشخص نمیکند، اما این خصوصیات را به عنوان حوزههای مهم برای توجه و استانداردسازی آتی شناسایی میکند. این خصوصیات اغلب در سایر چارچوبهای معتبر مانند راهنمای اخلاقی اتحادیه اروپا برای هوش مصنوعی قابل اعتماد (EU Ethics Guidelines for Trustworthy AI) و چارچوب مدیریت ریسک هوش مصنوعی NIST (NIST AI Risk Management Framework) نیز منعکس شدهاند.
این خصوصیات معمولاً شامل موارد زیر (یا مفاهیم مشابه) هستند:
شفافیت (Transparency):
به قابلیت درک نحوه عملکرد یک سیستم AI، دادههای مورد استفاده، و فرآیندهای تصمیمگیری آن اشاره دارد.
شامل مستندسازی مناسب، قابلیت ردیابی دادهها و مدلها، و در صورت امکان، ارائه توضیحاتی در مورد تصمیمات اتخاذ شده توسط سیستم AI (Explainability).
توضیحپذیری (Explainability / Interpretability):
توانایی ارائه توضیحات قابل فهم برای انسان در مورد خروجیها و تصمیمات یک سیستم AI. این امر به ویژه برای سیستمهای پیچیده مانند مدلهای یادگیری عمیق (Deep Learning) حیاتی است.
توضیحپذیری به کاربران کمک میکند تا به تصمیمات سیستم اعتماد کنند، خطاها را شناسایی کنند و مسئولیتپذیری را بهبود بخشند.
استحکام و قابلیت اطمینان (Robustness and Reliability):
به توانایی یک سیستم AI برای عملکرد صحیح و پایدار در شرایط مختلف، از جمله مواجهه با دادههای غیرمنتظره یا حملات مخرب، اشاره دارد.
شامل دقت (Accuracy)، تابآوری (Resilience) در برابر خطاها و حملات، و قابلیت تکرارپذیری (Reproducibility) نتایج.
ایمنی (Safety):
اطمینان از اینکه سیستم AI در طول چرخه عمر خود، آسیب غیرقابل قبولی به افراد، اموال یا محیط زیست وارد نمیکند.
این شامل پیشبینی، جلوگیری و کاهش خطرات ایمنی مرتبط با عملکرد سیستم AI است.
امنیت (Security):
محافظت از سیستم AI، دادهها و فرآیندهای آن در برابر دسترسیهای غیرمجاز، حملات سایبری، دستکاری و سایر تهدیدات امنیتی.
امنیت برای حفظ یکپارچگی، محرمانگی و در دسترس بودن سیستم AI و دادههای آن ضروری است.
انصاف و عدم تبعیض (Fairness and Non-discrimination):
اطمینان از اینکه سیستم AI تصمیمات و نتایج منصفانهای ارائه میدهد و منجر به تبعیض ناعادلانه علیه افراد یا گروهها بر اساس ویژگیهای حساس (مانند نژاد، جنسیت، سن و غیره) نمیشود.
این امر نیازمند شناسایی و کاهش سوگیریها (Bias) در دادهها، الگوریتمها و مدلهای AI است. ISO/IEC TR 24027 به طور خاص به این موضوع میپردازد.
پاسخگویی و حسابرسی (Accountability and Auditability):
ایجاد مکانیسمهایی برای تعیین مسئولیت در قبال توسعه، پیادهسازی و عملکرد سیستمهای AI.
شامل قابلیت ردیابی تصمیمات، ثبت وقایع (Logging) و امکان حسابرسی مستقل از سیستم.
حریم خصوصی (Privacy):
حفاظت از اطلاعات شخصی افراد که توسط سیستم AI جمعآوری، پردازش یا ذخیره میشود.
این امر مستلزم رعایت اصول حفاظت از دادهها (مانند GDPR در اروپا) و استفاده از تکنیکهای حفظ حریم خصوصی (مانند Privacy-Preserving Machine Learning) است.
نظارت و کنترل انسانی (Human Agency and Oversight):
اطمینان از اینکه انسانها همواره کنترل نهایی بر سیستمهای AI را حفظ میکنند و میتوانند در صورت لزوم در عملکرد آنها مداخله کرده یا آن را متوقف کنند.
سیستمهای AI باید به عنوان ابزاری برای توانمندسازی انسانها عمل کنند، نه جایگزینی کامل آنها، به ویژه در تصمیمگیریهای حساس.
رفاه اجتماعی و زیستمحیطی (Societal and Environmental Well-being):
در نظر گرفتن تأثیرات گستردهتر سیستمهای AI بر جامعه و محیط زیست و تلاش برای به حداکثر رساندن منافع مثبت و به حداقل رساندن آسیبهای احتمالی.
ISO/IEC TR 24028 این خصوصیات را در یک چارچوب کلی ارائه میدهد و به عنوان پایهای برای بحثهای بیشتر و توسعه استانداردهای خاصتر عمل میکند.
چرخه عمر سیستم هوش مصنوعی و قابلیت اعتماد
گزارش فنی ISO/IEC TR 24028 به اهمیت در نظر گرفتن قابلیت اعتماد در تمام مراحل چرخه عمر یک سیستم AI اشاره دارد. استاندارد ISO/IEC 5338 به طور خاص فرآیندهای چرخه عمر سیستم AI را پوشش میدهد، اما اصول قابلیت اعتماد باید در هر مرحله مد نظر قرار گیرند:
مفهومسازی و طراحی (Conception and Design):
تعریف اهداف با در نظر گرفتن اصول اخلاقی و قابلیت اعتماد.
شناسایی ریسکهای بالقوه مرتبط با قابلیت اعتماد (با کمک ISO/IEC 23894).
انتخاب معماری و الگوریتمهایی که شفافیت، انصاف و استحکام را تقویت میکنند.
توسعه و آموزش مدل (Development and Training):
جمعآوری و آمادهسازی دادهها با توجه به کیفیت، نمایندگی و سوگیریهای بالقوه.
توسعه و آموزش مدلهای AI با استفاده از روشهایی که قابلیت اعتماد را بهبود میبخشند.
آزمایش و اعتبارسنجی دقیق مدل برای ارزیابی عملکرد، استحکام، انصاف و سایر خصوصیات.
پیادهسازی و استقرار (Implementation and Deployment):
ادغام ایمن سیستم AI در محیط عملیاتی.
اطمینان از وجود مکانیسمهای نظارت و کنترل انسانی.
عملیات و نگهداری (Operation and Maintenance):
پایش مستمر عملکرد سیستم AI برای شناسایی هرگونه کاهش در قابلیت اعتماد (مانند Drift در مدل یا ظهور سوگیریهای جدید).
بهروزرسانی و آموزش مجدد مدلها در صورت لزوم.
مدیریت حوادث و پاسخ به مشکلات مرتبط با قابلیت اعتماد.
از کار انداختن (Decommissioning):
از کار انداختن ایمن و مسئولانه سیستم AI و مدیریت دادههای مرتبط با آن.
مزایای استفاده از راهنماییهای ISO/IEC TR 24028
اگرچه ISO/IEC TR 24028 یک استاندارد الزامات نیست و منجر به صدور گواهینامه نمیشود، اما استفاده از آن به عنوان یک راهنمای فنی میتواند مزایای قابل توجهی برای سازمانها داشته باشد:
ایجاد درک مشترک: فراهم کردن یک زبان و چارچوب مشترک برای بحث در مورد هوش مصنوعی قابل اعتماد در داخل سازمان و با ذینفعان خارجی.
شناسایی ریسکها و فرصتها: کمک به شناسایی ریسکهای بالقوه مرتبط با سیستمهای AI و همچنین فرصتهایی برای نوآوری مسئولانه.
پایهگذاری برای حکمرانی AI: ارائه مبانی برای توسعه سیاستها، رویهها و چارچوبهای حکمرانی داخلی برای هوش مصنوعی.
آمادگی برای استانداردهای آینده و مقررات: با درک مفاهیم مطرح شده در TR 24028، سازمانها میتوانند خود را برای انطباق با استانداردهای الزامات آینده (مانند ISO/IEC 42001) و مقررات نوظهور (مانند EU AI Act) آماده کنند.
افزایش اعتماد ذینفعان: نشان دادن تعهد سازمان به توسعه و استفاده مسئولانه از هوش مصنوعی میتواند اعتماد مشتریان، شرکا و جامعه را افزایش دهد.
هدایت نوآوری مسئولانه: تشویق به طراحی و توسعه سیستمهای AI که نه تنها کارآمد، بلکه اخلاقی و قابل اعتماد نیز باشند.
بهبود کیفیت و عملکرد سیستمهای AI: تمرکز بر خصوصیات قابلیت اعتماد میتواند منجر به توسعه سیستمهای AI قویتر، ایمنتر و منصفانهتر شود.
"شرایط اخذ گواهینامه" یا معادل آن برای ISO/IEC TR 24028
همانطور که پیشتر ذکر شد، ISO/IEC TR 24028:2020 یک گزارش فنی است و نه یک استاندارد الزامات قابل ممیزی. بنابراین، هیچ "گواهینامه انطباق" مستقیمی برای این گزارش فنی وجود ندارد. سازمانها نمیتوانند "گواهینامه ISO/IEC TR 24028" دریافت کنند.
با این حال، سازمانها میتوانند:
از TR 24028 به عنوان راهنما استفاده کنند: برای درک مفاهیم هوش مصنوعی قابل اعتماد و شناسایی بهترین شیوهها.
دانش خود را نشان دهند: با شرکت در دورههای آموزشی یا کارگاههای مرتبط با هوش مصنوعی قابل اعتماد و مفاهیم مطرح شده در TR 24028، افراد میتوانند دانش و آگاهی خود را در این زمینه افزایش دهند. BRS.ir میتواند چنین برنامههای آموزشی را ارائه دهد.
برای استانداردهای قابل گواهی شدن آماده شوند: TR 24028 میتواند به عنوان یک گام مقدماتی برای پیادهسازی استانداردهای سیستم مدیریتی مانند ISO/IEC 42001 (سیستم مدیریت هوش مصنوعی) عمل کند. سازمانها میتوانند برای ISO/IEC 42001 گواهینامه دریافت کنند، و TR 24028 به درک اصول زیربنایی آن کمک میکند.
ارزیابیهای انطباق داخلی یا شخص ثالث (غیر رسمی): یک سازمان میتواند از یک مشاور یا یک نهاد ثالث بخواهد تا میزان همسویی رویکردها و سیستمهای AI خود را با راهنماییهای ارائه شده در TR 24028 ارزیابی کند. این یک "صحهگذاری" یا "تأیید" رسمی نخواهد بود، بلکه بیشتر یک ارزیابی شکاف (Gap Assessment) یا بررسی انطباق با بهترین شیوهها است.
چالشهای پیادهسازی عملی هوش مصنوعی قابل اعتماد
با وجود راهنماییهای موجود، پیادهسازی عملی هوش مصنوعی قابل اعتماد با چالشهایی همراه است:
پیچیدگی فنی: برخی از خصوصیات قابلیت اعتماد (مانند توضیحپذیری برای مدلهای پیچیده) از نظر فنی چالشبرانگیز هستند.
کیفیت و سوگیری دادهها: دسترسی به دادههای با کیفیت بالا، نماینده و بدون سوگیری برای آموزش مدلهای AI منصفانه و قوی دشوار است.
تعادل بین خصوصیات: گاهی اوقات ممکن است بین خصوصیات مختلف قابلیت اعتماد تضاد وجود داشته باشد (مثلاً بین دقت و توضیحپذیری، یا بین حریم خصوصی و شفافیت).
فقدان استانداردها و معیارهای کمیشده: برای برخی از خصوصیات (مانند انصاف یا توضیحپذیری)، هنوز استانداردها و معیارهای کمیشده و پذیرفتهشده جهانی به طور کامل توسعه نیافتهاند.
نیاز به تخصص چند رشتهای: توسعه هوش مصنوعی قابل اعتماد نیازمند همکاری متخصصان از رشتههای مختلف (فنی، حقوقی، اخلاقی، اجتماعی) است.
هزینه و منابع: پیادهسازی رویکردهای هوش مصنوعی قابل اعتماد ممکن است نیازمند سرمایهگذاری اولیه در زمان، منابع و تخصص باشد.
آینده هوش مصنوعی قابل اعتماد و نقش استانداردها
هوش مصنوعی قابل اعتماد یک حوزه در حال تحول سریع است. انتظار میرود در آینده شاهد موارد زیر باشیم:
توسعه بیشتر استانداردها: ISO/IEC JTC 1/SC 42 و سایر نهادهای استانداردسازی به توسعه استانداردهای دقیقتر و تخصصیتر برای جنبههای مختلف هوش مصنوعی قابل اعتماد ادامه خواهند داد.
افزایش مقرراتگذاری: دولتها در سراسر جهان به تدوین و اجرای مقررات برای اطمینان از توسعه و استفاده مسئولانه از AI خواهند پرداخت.
توسعه ابزارها و تکنیکهای جدید: ابزارها و تکنیکهای جدیدی برای ارزیابی، پایش و بهبود قابلیت اعتماد سیستمهای AI توسعه خواهند یافت.
افزایش آگاهی و تقاضای عمومی: با افزایش آگاهی عمومی، تقاضا برای سیستمهای AI قابل اعتماد از سوی مصرفکنندگان، کسبوکارها و جامعه افزایش خواهد یافت.
نتیجهگیری
گزارش فنی ISO/IEC TR 24028:2020 (فناوری اطلاعات – هوش مصنوعی – مروری بر قابلیت اعتماد در هوش مصنوعی) یک منبع اطلاعاتی ارزشمند و بنیادین برای همه سازمانها و افرادی است که با توسعه، پیادهسازی یا استفاده از سیستمهای هوش مصنوعی سروکار دارند. اگرچه این سند منجر به صدور گواهینامه نمیشود، اما درک عمیقی از مفاهیم، چالشها و خصوصیات کلیدی هوش مصنوعی قابل اعتماد ارائه میدهد. این گزارش فنی به عنوان یک نقشه راه و نقطه شروع برای حرکت به سمت اکوسیستم AI مسئولانهتر، اخلاقیتر و در نهایت، قابل اعتمادتر عمل میکند.
BRS.ir متعهد است تا با ارائه آموزشها و خدمات مشاورهای تخصصی، سازمانها را در پیمودن این مسیر پیچیده و حیاتی یاری رساند و به آنها در ساختن آیندهای که در آن هوش مصنوعی در خدمت بشریت و ارزشهای انسانی باشد، کمک کند.