AI standards

اکوسیستم استانداردهای هوش مصنوعی (AI) که توسط ISO/IEC JTC 1/SC 42 توسعه یافته، شامل مجموعه‌ای از اسناد برای هدایت توسعه و استقرار مسئولانه AI است. ایزو/آی‌ای‌سی 42001:2023 (سیستم مدیریت هوش مصنوعی) به عنوان اولین استاندارد بین‌المللی سیستم مدیریت در این حوزه، الزاماتی را برای ایجاد، پیاده‌سازی، نگهداری و بهبود مستمر یک AIMS ارائه می‌دهد و توسط نهادهای صدور گواهینامه مانند بیکران راهکار سعادت قابل ممیزی و گواهی شدن است. سایر اسناد مهم مانند ایزو/آی‌ای‌سی 22989 (واژگان)، ایزو/آی‌ای‌سی 23894 (مدیریت ریسک AI)، و گزارش‌های فنی مانند ایزو/آی‌ای‌سی تی‌آر 24028 (مروری بر قابلیت اعتماد در AI) و ایزو/آی‌ای‌سی تی‌آر 24368 (نگرانی‌های اخلاقی و اجتماعی)، چارچوب‌های مفهومی، راهنمایی‌ها و بهترین شیوه‌هایی را فراهم می‌کنند که به سازمان‌ها در درک، پیاده‌سازی و برآورده کردن الزامات AIMS کمک می‌کنند. شرکت بیکران راهکار از طریق خدمات ممیزی و صدور گواهینامه برای ISO/IEC 42001 و ارائه اطلاعات عمومی در مورد سایر استانداردها، به ترویج AI قابل اعتماد و مسئولانه کمک می‌کند.

ai standards

پیام یا خواسته های خود را در این قسمت بنویسید. اگر  دقیقا نمی دانید که چه چیزی می خواهید و نیاز به مشاوره دارید، کارشناسان ما با شما تماس خواهند گرفت.

مروری بر اکوسیستم استانداردهای کلیدی ایزو/آی‌ای‌سی در حوزه هوش مصنوعی (AI)

هوش مصنوعی (AI) به سرعت در حال تغییر چشم‌انداز فناوری و کسب‌وکار در سراسر جهان است. با این پیشرفت سریع، نیاز به چارچوب‌ها، راهنمایی‌ها و الزامات استاندارد برای تضمین توسعه و استقرار مسئولانه، اخلاقی، ایمن و قابل اعتماد سیستم‌های AI بیش از هر زمان دیگری احساس می‌شود. کمیته فنی مشترک سازمان بین‌المللی استانداردسازی (ISO) و کمیسیون بین‌المللی الکتروتکنیک (IEC)، یعنی ISO/IEC JTC 1، و به طور خاص زیرکمیته SC 42 (هوش مصنوعی)، نقش پیشرویی در توسعه این استانداردهای بین‌المللی ایفا می‌کنند.
این استانداردها طیف وسیعی از موضوعات را پوشش می‌دهند، از مفاهیم و واژگان پایه گرفته تا سیستم‌های مدیریت، مدیریت ریسک، قابلیت اعتماد، و ملاحظات اخلاقی. BRS.ir، به عنوان یک نهاد پیشرو در ممیزی و صدور گواهینامه، متعهد به ارائه اطلاعات دقیق در مورد این استانداردها و نقش خود در ارزیابی انطباق سازمان‌ها با استانداردهای قابل گواهی شدن مانند ISO/IEC 42001 است.
هوش مصنوعی (AI) دیگر یک مفهوم آینده‌نگرانه نیست؛ بلکه یک واقعیت تجاری است که صنایع را از تولید و بهداشت و درمان گرفته تا خدمات مالی و بازاریابی، متحول می‌کند. با این حال، همانند هر فناوری قدرتمند دیگری، هوش مصنوعی نیز با چالش‌ها و ریسک‌های منحصربه‌فردی همراه است: از نگرانی‌های مربوط به حریم خصوصی و امنیت داده‌ها گرفته تا سوگیری‌های الگوریتمی و عدم شفافیت در تصمیم‌گیری.
در این اکوسیستم پیچیده، چگونه می‌توان اطمینان حاصل کرد که سیستم‌های هوش مصنوعی که توسعه می‌دهیم یا به کار می‌گیریم، مسئولانه، اخلاقی، ایمن و قابل اعتماد هستند؟ پاسخ در استانداردسازی نهفته است. سازمان بین‌المللی استانداردسازی (ISO) و کمیسیون بین‌المللی الکتروتکنیک (IEC)، از طریق کمیته فنی مشترک خود ISO/IEC JTC 1/SC 42، پیشگام تدوین مجموعه‌ای جامع از استانداردها برای حاکمیت بر این فناوری نوظهور شده‌اند.
این مقاله یک مرجع کامل و فنی برای مدیران، توسعه‌دهندگان، مشاوران و تمام سازمان‌هایی است که به دنبال درک عمیق و پیاده‌سازی استانداردهای ایزو مرتبط با هوش مصنوعی هستند. با مطالعه این راهنما، شما نه تنها با مهم‌ترین استانداردها آشنا می‌شوید، بلکه درک خواهید کرد که چگونه هر یک از آن‌ها می‌تواند به عنوان یک ابزار استراتژیک برای کاهش ریسک، افزایش اعتماد مشتریان و کسب مزیت رقابتی پایدار عمل کند.


لیست کلیدی استانداردهای ایزو در حوزه هوش مصنوعی

کمیته ISO/IEC JTC 1/SC 42 مسئولیت توسعه استانداردهای بین‌المللی برای هوش مصنوعی را بر عهده دارد. این استانداردها جنبه‌های مختلفی از جمله مفاهیم پایه، مدیریت ریسک، کیفیت داده، اخلاق و سیستم‌های مدیریتی را پوشش می‌دهند. در ادامه، لیست مهم‌ترین استانداردهای منتشر شده و در حال تدوین ارائه می‌شود:
ISO/IEC 22989:2022: فناوری اطلاعات — هوش مصنوعی — مفاهیم و واژگان (Concepts and Terminology)
ISO/IEC 42001:2023: فناوری اطلاعات — هوش مصنوعی — سیستم مدیریت (Management System)
ISO/IEC 23894:2023: فناوری اطلاعات — هوش مصنوعی — مدیریت ریسک (Risk Management)
ISO/IEC 23053:2022: چارچوبی برای سیستم‌های هوش مصنوعی (AI) با استفاده از یادگیری ماشین (ML)
ISO/IEC TR 24028:2020: مروری بر قابلیت اطمینان در هوش مصنوعی (Overview of Trustworthiness in AI)
ISO/IEC TR 24027:2021: سوگیری در سیستم‌های هوش مصنوعی و تصمیم‌گیری به کمک هوش مصنوعی (Bias in AI systems)
ISO/IEC TR 24368:2022: مروری بر نگرانی‌های اخلاقی و اجتماعی هوش مصنوعی (Overview of ethical and societal concerns)
سری استانداردهای ISO/IEC 5259: کیفیت داده برای تحلیل و یادگیری ماشین (Data quality for Analytics and ML)
ISO/IEC TR 24029-1:2021: ارزیابی استواری (Robustness) شبکه‌های عصبی
ISO/IEC 42005 (در حال تدوین): ارزیابی تأثیر سیستم هوش مصنوعی (AI system impact assessment)
ISO/IEC 42006 (در حال تدوین): الزامات برای نهادهای ارائه‌دهنده ممیزی و صدور گواهینامه سیستم‌های مدیریت هوش مصنوعی

در ادامه، به بررسی مجموعه‌ای از استانداردهای کلیدی و گزارش‌های فنی منتشر شده یا در حال توسعه توسط ISO/IEC JTC 1/SC 42 می‌پردازیم:

1. ایزو/آی‌ای‌سی 22989:2022 (ISO/IEC 22989:2022)

•    نام انگلیسی کامل: ISO/IEC 22989:2022 Information technology — Artificial intelligence — Artificial intelligence concepts and terminology
•    نام فارسی پیشنهادی: ایزو/آی‌ای‌سی 22989:2022 فناوری اطلاعات – هوش مصنوعی – مفاهیم و واژگان هوش مصنوعی
•    نوع سند: استاندارد بین‌المللی (International Standard)
•    مرور کلی و هدف:
این استاندارد یک چارچوب مفهومی و واژگان یکپارچه برای حوزه هوش مصنوعی ارائه می‌دهد. هدف آن ایجاد درک مشترک از اصطلاحات و مفاهیم کلیدی AI در بین ذینفعان مختلف، از جمله توسعه‌دهندگان، محققان، کاربران، سیاست‌گذاران و نهادهای استانداردسازی است. داشتن یک زبان مشترک برای کاهش ابهام و تسهیل ارتباطات و همکاری در این حوزه به سرعت در حال تحول، حیاتی است. این استاندارد به عنوان پایه‌ای برای درک سایر استانداردهای تخصصی‌تر AI عمل می‌کند.
موضوعاتی مانند انواع مختلف سیستم‌های AI، رویکردهای یادگیری ماشین، داده‌ها در AI، عملکرد سیستم AI و ملاحظات انسانی و اجتماعی در آن پوشش داده شده است.


2. ایزو/آی‌ای‌سی 23053:2022 (ISO/IEC 23053:2022)


•    نام انگلیسی کامل: ISO/IEC 23053:2022 Framework for Artificial Intelligence (AI) Systems Using Machine Learning (ML)
•    نام فارسی پیشنهادی: ایزو/آی‌ای‌سی 23053:2022 چارچوبی برای سیستم‌های هوش مصنوعی (AI) با استفاده از یادگیری ماشین (ML)
•    نوع سند: استاندارد بین‌المللی (International Standard)
•    مرور کلی و هدف:
این استاندارد یک چارچوب برای توصیف، مهندسی و تجزیه و تحلیل سیستم‌های هوش مصنوعی که از یادگیری ماشین استفاده می‌کنند، ارائه می‌دهد. هدف آن کمک به درک معماری و اجزای یک سیستم AI مبتنی بر ML و فرآیندهای مرتبط با چرخه عمر آن است. این استاندارد به مهندسان، توسعه‌دهندگان و مدیران پروژه کمک می‌کند تا سیستم‌های AI را به طور مؤثرتر طراحی، توسعه، پیاده‌سازی و نگهداری کنند. این چارچوب شامل مراحل مختلفی از جمع‌آوری داده‌ها و پیش‌پردازش تا آموزش مدل، ارزیابی، استقرار و پایش است.
 

3. ایزو/آی‌ای‌سی 23894:2023 (ISO/IEC 23894:2023)

•    نام انگلیسی کامل: ISO/IEC 23894:2023 Information technology — Artificial intelligence — Risk management
•    نام فارسی پیشنهادی: ایزو/آی‌ای‌سی 23894:2023 فناوری اطلاعات – هوش مصنوعی – مدیریت ریسک
•    نوع سند: استاندارد بین‌المللی (International Standard)
•    مرور کلی و هدف:
این استاندارد راهنمایی‌هایی را برای مدیریت ریسک‌های مرتبط با توسعه، پیاده‌سازی و استفاده از سیستم‌های هوش مصنوعی ارائه می‌دهد. این استاندارد بر اساس اصول کلی مدیریت ریسک مطرح شده در ISO 31000 بنا شده و آن‌ها را برای زمینه خاص AI تطبیق می‌دهد. هدف آن کمک به سازمان‌ها برای شناسایی، ارزیابی، درمان و پایش ریسک‌های مرتبط با AI، از جمله ریسک‌های مربوط به عملکرد، امنیت، حریم خصوصی، انصاف، شفافیت و ایمنی است. مدیریت ریسک یک جزء حیاتی برای دستیابی به هوش مصنوعی قابل اعتماد و همچنین یکی از الزامات کلیدی در استاندارد سیستم مدیریت هوش مصنوعی (ISO/IEC 42001) است.

4. ایزو/آی‌ای‌سی تی‌آر 24028:2020 (ISO/IEC TR 24028:2020)

•    نام انگلیسی کامل: ISO/IEC TR 24028:2020 Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence
•    نام فارسی پیشنهادی: ایزو/آی‌ای‌سی تی‌آر 24028:2020 فناوری اطلاعات – هوش مصنوعی – مروری بر قابلیت اعتماد در هوش مصنوعی
•    نوع سند: گزارش فنی (Technical Report - TR)
•    مرور کلی و هدف:
(همانطور که قبلاً به تفصیل بحث شد) این گزارش فنی مروری جامع بر مفاهیم، اصول، چالش‌ها و خصوصیات کلیدی مرتبط با هوش مصنوعی قابل اعتماد (Trustworthy AI) ارائه می‌دهد. خصوصیات مهمی مانند شفافیت، توضیح‌پذیری، استحکام، ایمنی، امنیت، انصاف، پاسخگویی، حریم خصوصی و نظارت انسانی در این سند مورد بررسی قرار می‌گیرند. هدف آن ایجاد درک مشترک از قابلیت اعتماد و شناسایی حوزه‌هایی برای استانداردسازی آتی است.

5. ایزو/آی‌ای‌سی تی‌آر 24029-1:2021 (ISO/IEC TR 24029-1:2021)

•    نام انگلیسی کامل: ISO/IEC TR 24029-1:2021 Artificial intelligence (AI) — Assessment of the robustness of neural networks — Part 1: Overview
•    نام فارسی پیشنهادی: ایزو/آی‌ای‌سی تی‌آر 24029-1:2021 هوش مصنوعی (AI) – ارزیابی استحکام شبکه‌های عصبی – بخش 1: مرور کلی
•    نوع سند: گزارش فنی (Technical Report - TR)
•    مرور کلی و هدف:
این گزارش فنی بر یکی از جنبه‌های مهم قابلیت اعتماد، یعنی "استحکام" (Robustness)، به ویژه در زمینه شبکه‌های عصبی (یک نوع رایج از مدل‌های یادگیری ماشین) تمرکز دارد. استحکام به توانایی یک سیستم AI برای حفظ عملکرد خود در شرایط غیرمنتظره، داده‌های دارای نویز، یا حملات مخرب اشاره دارد. این TR مروری بر مفاهیم، روش‌ها و چالش‌های مرتبط با ارزیابی استحکام شبکه‌های عصبی ارائه می‌دهد.
 

6. ایزو/آی‌ای‌سی 42001:2023 (ISO/IEC 42001:2023) - استاندارد کلیدی قابل گواهی شدن

•    نام انگلیسی کامل: ISO/IEC 42001:2023 Information technology — Artificial intelligence — Management system
•    نام فارسی پیشنهادی: ایزو/آی‌ای‌سی 42001:2023 فناوری اطلاعات – هوش مصنوعی – سیستم مدیریت
•    نوع سند: استاندارد بین‌المللی سیستم مدیریت (International Management System Standard - MSS)
•    مرور کلی و هدف:
این استاندارد، اولین استاندارد بین‌المللی سیستم مدیریت برای هوش مصنوعی است. ISO/IEC 42001 الزاماتی را برای ایجاد، پیاده‌سازی، نگهداری و بهبود مستمر یک "سیستم مدیریت هوش مصنوعی" (Artificial Intelligence Management System - AIMS) در یک سازمان مشخص می‌کند. هدف آن کمک به سازمان‌ها برای توسعه و استفاده مسئولانه از سیستم‌های AI، مدیریت ریسک‌های مرتبط با AI، و برآورده کردن الزامات قانونی، اخلاقی و انتظارات ذینفعان است. این استاندارد ساختاری مشابه سایر استانداردهای سیستم مدیریتی ایزو (مانند ISO 9001, ISO 27001) دارد و از ساختار سطح بالا (High-Level Structure - HLS) پیروی می‌کند که ادغام آن با سایر سیستم‌های مدیریتی را تسهیل می‌کند.
موضوعات کلیدی تحت پوشش شامل: زمینه سازمان، رهبری، برنامه‌ریزی (شامل ارزیابی ریسک و تأثیر AI)، پشتیبانی، عملیات (شامل چرخه عمر سیستم AI)، ارزیابی عملکرد و بهبود است.
•    نقش BRS.ir:
BRS.ir به عنوان یک نهاد صدور گواهینامه (CB) می‌تواند خدمات ممیزی شخص ثالث و صدور گواهینامه را برای استاندارد ISO/IEC 42001 ارائه دهد. سازمان‌هایی که یک AIMS مطابق با الزامات این استاندارد پیاده‌سازی کرده‌اند، می‌توانند توسط BRS.ir ممیزی شوند و در صورت انطباق، گواهینامه ISO/IEC 42001 را دریافت کنند. این گواهینامه نشان‌دهنده تعهد سازمان به مدیریت مسئولانه هوش مصنوعی است. BRS.ir همچنین می‌تواند برنامه‌های آموزشی عمومی برای آشنایی با الزامات ISO/IEC 42001 و فرآیند ممیزی و صدور گواهینامه ارائه دهد.

7. ایزو/آی‌ای‌سی 38507:2022 (ISO/IEC 38507:2022)

•    نام انگلیسی کامل: ISO/IEC 38507:2022 Information technology — Governance of IT — Governance implications of the use of artificial intelligence by organizations
•    نام فارسی پیشنهادی: ایزو/آی‌ای‌سی 38507:2022 فناوری اطلاعات – راهبری فناوری اطلاعات – پیامدهای راهبری استفاده از هوش مصنوعی توسط سازمان‌ها
•    نوع سند: استاندارد راهنما (Guidance Standard)
•    مرور کلی و هدف:
این استاندارد راهنمایی‌هایی را برای هیئت مدیره و مدیران ارشد سازمان‌ها (نهادهای راهبری) در مورد نقش و مسئولیت‌های آن‌ها در قبال استفاده از هوش مصنوعی ارائه می‌دهد. این استاندارد بر اساس اصول راهبری فناوری اطلاعات مطرح شده در ISO/IEC 38500 بنا شده و بر اهمیت تصمیم‌گیری آگاهانه، نظارت مؤثر، و هدایت استراتژیک استفاده از AI در سازمان تأکید دارد. هدف آن کمک به رهبران سازمان برای درک پیامدهای راهبری AI و اطمینان از اینکه استفاده از AI با اهداف، ارزش‌ها و تعهدات سازمان همسو است.

8. گزارش فنی ISO/IEC TR 24028:2020 — مروری بر قابلیت اطمینان در هوش مصنوعی

اعتماد، ارزشمندترین دارایی در عصر AI
قابلیت اطمینان (Trustworthiness) یک مفهوم کلیدی و فراگیر در حوزه هوش مصنوعی است. مشتریان، کاربران و جامعه تنها در صورتی از سیستم‌های AI استقبال خواهند کرد که به آن‌ها اعتماد داشته باشند. گزارش فنی ISO/IEC TR 24028:2020 به تعریف و تشریح این مفهوم حیاتی می‌پردازد. این گزارش قابلیت اطمینان را به عنوان یک ویژگی چندوجهی معرفی می‌کند که از چندین مشخصه کلیدی تشکیل شده است، از جمله:
قابلیت اطمینان و استواری (Reliability and Robustness): عملکرد پایدار سیستم حتی در شرایط غیرمنتظره.
ایمنی (Safety): جلوگیری از آسیب رساندن سیستم به انسان یا محیط.
امنیت (Security): محافظت در برابر تهدیدات و حملات مخرب.
حریم خصوصی (Privacy): حفاظت از داده‌های شخصی افراد.
شفافیت و توضیح‌پذیری (Transparency and Explainability): توانایی درک و توضیح عملکرد و تصمیمات سیستم.
انصاف و عدم سوگیری (Fairness and Avoidance of Bias): رفتار عادلانه و بدون تبعیض با همه گروه‌ها.
پاسخگویی (Accountability): مشخص بودن مسئولیت‌ها در قبال عملکرد سیستم.
این گزارش فنی یک نقشه راه برای سازمان‌ها جهت درک این ابعاد و چگونگی تأثیرگذاری آن‌ها بر یکدیگر فراهم می‌کند. اگرچه این یک استاندارد قابل ممیزی نیست، اما مبانی فکری لازم برای پیاده‌سازی کنترل‌های مرتبط در ISO 42001 را فراهم می‌سازد.

9. گزارش فنی ISO/IEC TR 24027:2021 — سوگیری در سیستم‌های هوش مصنوعی

مبارزه با تبعیض الگوریتمی
یکی از بزرگترین و شناخته‌شده‌ترین خطرات هوش مصنوعی، سوگیری (Bias) است. سیستم‌های AI که بر روی داده‌های تاریخی آموزش می‌بینند، می‌توانند سوگیری‌های موجود در جامعه را بازتولید و حتی تقویت کنند. این امر می‌تواند منجر به تصمیمات تبعیض‌آمیز در زمینه‌هایی مانند استخدام، اعطای وام، تشخیص پزشکی و عدالت کیفری شود. گزارش فنی ISO/IEC TR 24027:2021 به طور اختصاصی به این چالش می‌پردازد. این گزارش انواع مختلف سوگیری (مانند سوگیری داده، سوگیری الگوریتم، سوگیری تعامل انسانی) را شناسایی و دسته‌بندی می‌کند. مهم‌تر از آن، رویکردها و تکنیک‌های فنی، فرآیندی و سازمانی را برای شناسایی، اندازه‌گیری و کاهش سوگیری در سراسر چرخه حیات سیستم AI ارائه می‌دهد. این گزارش برای توسعه‌دهندگان، دانشمندان داده و مدیران محصول که مسئول طراحی و اعتبارسنجی مدل‌های AI هستند، یک منبع بسیار ارزشمند است. پرداختن به سوگیری نه تنها یک الزام اخلاقی، بلکه یک ضرورت تجاری برای جلوگیری از آسیب‌های اعتباری و چالش‌های قانونی است. این گزارش فنی به سازمان‌ها کمک می‌کند تا گام‌های عملی برای ساخت سیستم‌های عادلانه‌تر و منصفانه‌تر بردارند.
 

10. گزارش فنی ISO/IEC TR 24368:2022 — نگرانی‌های اخلاقی و اجتماعی هوش مصنوعی

نگاهی فراتر از کد: مسئولیت اجتماعی AI
هوش مصنوعی تنها یک چالش فنی نیست، بلکه تأثیرات عمیق اجتماعی و اخلاقی دارد. گزارش فنی ISO/IEC TR 24368:2022 به بررسی این نگرانی‌های گسترده‌تر می‌پردازد. این گزارش یک نمای کلی از مسائل اخلاقی و اجتماعی مرتبط با توسعه و استقرار سیستم‌های AI ارائه می‌دهد. موضوعات تحت پوشش شامل موارد زیر است:
شفافیت و پاسخگویی: چه کسی مسئول تصمیمات یک سیستم خودکار است؟
ارزش‌های انسانی: چگونه اطمینان حاصل کنیم که سیستم‌های AI با کرامت و حقوق بشر همسو هستند؟
تأثیر بر اشتغال: نقش AI در آینده بازار کار و جابجایی شغلی.
دموکراسی و نظارت: استفاده از AI در نظارت‌های دولتی و تأثیر آن بر آزادی‌های مدنی.
پایداری زیست‌محیطی: مصرف انرژی بالای مراکز داده و آموزش مدل‌های بزرگ.
این گزارش به عنوان یک راهنمای سطح بالا برای سیاست‌گذاران، مدیران ارشد و استراتژیست‌ها عمل می‌کند تا هنگام تدوین استراتژی‌های هوش مصنوعی خود، این ابعاد پیچیده را در نظر بگیرند. این گزارش به سازمان‌ها کمک می‌کند تا یک رویکرد "اخلاق از طریق طراحی" (Ethics by Design) را اتخاذ کرده و مسئولیت اجتماعی خود را در عصر هوش مصنوعی جدی بگیرند. این امر برای ساختن یک برند قابل اعتماد و پایدار ضروری است.

11. سری استانداردهای ISO/IEC 5259 — کیفیت داده برای تحلیل و یادگیری ماشین

کیفیت داده: سوخت حیاتی برای موتور هوش مصنوعی
یک اصل اساسی در هوش مصنوعی وجود دارد: "آشغال ورودی، آشغال خروجی" (Garbage In, Garbage Out). عملکرد، دقت و انصاف هر سیستم AI به شدت به کیفیت داده‌هایی که بر روی آن آموزش دیده، وابسته است. سری استانداردهای ISO/IEC 5259 به طور خاص برای پرداختن به این موضوع حیاتی، یعنی کیفیت داده برای یادگیری ماشین (ML) و تحلیل داده، در حال توسعه است. این سری استانداردها، که بر پایه استاندارد مادر کیفیت داده (ISO/IEC 25012) بنا شده‌اند، یک چارچوب جامع برای تعریف، اندازه‌گیری و بهبود کیفیت داده در پروژه‌های AI ارائه خواهند داد. این استانداردها ویژگی‌های کیفیت داده مانند کامل بودن، دقت، سازگاری، به‌روز بودن و ارتباط را در زمینه خاص ML تعریف می‌کنند. به عنوان مثال، آن‌ها به مسائلی مانند برچسب‌گذاری صحیح داده‌ها، مدیریت نسخه‌های مختلف دیتاست‌ها، شناسایی و رسیدگی به داده‌های پرت (outliers) و اطمینان از نمایش کافی همه گروه‌ها در داده‌های آموزشی می‌پردازند. برای هر سازمانی که به طور جدی از ML استفاده می‌کند، پیاده‌سازی فرآیندهای مدیریت کیفیت داده مطابق با این سری استانداردها، یک سرمایه‌گذاری ضروری برای دستیابی به نتایج قابل اعتماد و جلوگیری از شکست‌های پرهزینه است.


12. گزارش فنی ISO/IEC TR 24029-1:2021 — ارزیابی استواری شبکه‌های عصبی

سنجش مقاومت مدل‌ها در دنیای واقعی
استواری (Robustness) یکی از جنبه‌های کلیدی قابلیت اطمینان (Trustworthiness) است. یک مدل هوش مصنوعی استوار، مدلی است که عملکرد آن در مواجهه با ورودی‌های غیرمنتظره، نویزی یا حتی مخرب، به طور قابل توجهی افت نمی‌کند. گزارش فنی ISO/IEC TR 24029-1:2021 به طور خاص بر روی روش‌های ارزیابی استواری شبکه‌های عصبی تمرکز دارد. شبکه‌های عصبی، به ویژه مدل‌های یادگیری عمیق، می‌توانند به طرز شگفت‌آوری شکننده باشند. برای مثال، تغییرات جزئی و نامحسوس در یک تصویر (که به آن حمله مخرب یا Adversarial Attack گفته می‌شود) می‌تواند باعث شود که یک مدل تشخیص تصویر، آن را به اشتباه طبقه‌بندی کند. این گزارش فنی، یک طبقه‌بندی از متدولوژی‌های مختلف برای ارزیابی و اعتبارسنجی استواری شبکه‌های عصبی ارائه می‌دهد. این روش‌ها شامل تکنیک‌های آزمون، معیارهای سنجش و فرآیندهای اعتبارسنجی هستند که به توسعه‌دهندگان کمک می‌کنند تا نقاط ضعف مدل‌های خود را قبل از استقرار در محیط‌های حساس (مانند خودروهای خودران یا تشخیص پزشکی) شناسایی کنند. این گزارش برای تیم‌های تحقیق و توسعه و مهندسان اعتبارسنجی که مسئول تضمین پایداری و ایمنی سیستم‌های AI هستند، یک راهنمای فنی ضروری است.


سایر اسناد در حال توسعه یا گزارش‌های فنی مرتبط (وضعیت در زمان نگارش ممکن است تغییر کند):

•    ISO/IEC AWI 42006 (Artificial intelligence — Requirements for bodies providing audit and certification of artificial intelligence management systems):
o    وضعیت: AWI (Approved Work Item) – در مراحل اولیه توسعه.
o    هدف احتمالی: این استاندارد احتمالاً الزاماتی را برای نهادهایی مانند BRS.ir که ممیزی و صدور گواهینامه سیستم‌های مدیریت هوش مصنوعی (AIMS) را انجام می‌دهند، مشخص خواهد کرد (مشابه ISO/IEC 17021-1 برای سایر سیستم‌های مدیریتی). BRS.ir توسعه این استاندارد را به دقت دنبال خواهد کرد تا از انطباق با آن در آینده اطمینان حاصل کند.
•    ISO/IEC DIS 23873 (نام دقیق ممکن است تغییر کند - احتمالاً مربوط به تست سیستم‌های AI):
o    وضعیت: DIS (Draft International Standard) – نزدیک به انتشار به عنوان استاندارد نهایی یا FDIS.
o    هدف احتمالی: ارائه چارچوب‌ها و راهنمایی‌هایی برای تست و ارزیابی سیستم‌های هوش مصنوعی، که برای تضمین کیفیت، عملکرد و قابلیت اعتماد آن‌ها حیاتی است. تست و ارزیابی بخشی از فرآیندهای عملیاتی در ISO/IEC 42001 خواهد بود. BRS.ir این استاندارد را پس از انتشار بررسی خواهد کرد.
•    ISO/IEC TR 24368:2022 (Information technology — Artificial intelligence — Ethical and societal concerns):
o    نام فارسی پیشنهادی: ایزو/آی‌ای‌سی تی‌آر 24368:2022 فناوری اطلاعات – هوش مصنوعی – نگرانی‌های اخلاقی و اجتماعی
o    نوع سند: گزارش فنی (Technical Report - TR)
o    مرور کلی و هدف: این TR به بررسی طیف وسیعی از نگرانی‌های اخلاقی و اجتماعی مرتبط با توسعه و استفاده از هوش مصنوعی می‌پردازد. هدف آن افزایش آگاهی و ارائه دیدگاه‌هایی برای رسیدگی به این نگرانی‌ها است. موضوعاتی مانند تأثیر AI بر اشتغال، حریم خصوصی، عدالت، خودمختاری انسان و دموکراسی در آن مطرح می‌شود. این TR مکمل ISO/IEC TR 24028 در زمینه قابلیت اعتماد است.


نتیجه‌گیری کلی برای اکوسیستم استانداردهای AI

این مقاله جامع به بررسی دقیق اکوسیستم رو به رشد استانداردهای بین‌المللی هوش مصنوعی (AI) که توسط کمیته فنی مشترک ISO/IEC JTC 1/SC 42 تدوین شده‌اند، می‌پردازد. با توجه به نفوذ سریع هوش مصنوعی در تمامی صنایع، نیاز به یک چارچوب حاکمیتی برای تضمین توسعه و استفاده مسئولانه، اخلاقی و ایمن از این فناوری بیش از هر زمان دیگری احساس می‌شود. این مقاله با معرفی استاندارد بنیادی ISO/IEC 22989 برای ایجاد زبان مشترک در حوزه AI آغاز می‌شود و سپس به تشریح مهم‌ترین استاندارد این حوزه، ISO/IEC 42001، که یک سیستم مدیریت هوش مصنوعی (AIMS) قابل ممیزی و صدور گواهینامه را ارائه می‌دهد، می‌پردازد.
در ادامه، استانداردهای کلیدی دیگری مانند ISO/IEC 23894 برای مدیریت ریسک‌های منحصربه‌فرد AI، ISO/IEC 23053 برای چارچوب سیستم‌های مبتنی بر یادگیری ماشین، و گزارش‌های فنی مهم در مورد قابلیت اطمینان (TR 24028)، سوگیری (TR 24027) و ملاحظات اخلاقی و اجتماعی (TR 24368) به تفصیل مورد بحث قرار می‌گیرند. همچنین، به اهمیت حیاتی کیفیت داده (سری 5259) و استواری شبکه‌های عصبی (TR 24029) به عنوان پیش‌نیازهای موفقیت سیستم‌های AI اشاره می‌شود.
در نهایت، مقاله با نگاهی به آینده و معرفی استانداردهای در حال تدوین مانند ISO/IEC 42005 (ارزیابی تأثیر) و ISO/IEC 42006 (الزامات نهادهای صدور گواهینامه)، تصویری کامل از تلاش‌های جهانی برای استانداردسازی این فناوری تحول‌آفرین ارائه می‌دهد. پیام اصلی این مقاله آن است که این استانداردها تنها اسناد فنی نیستند، بلکه ابزارهای استراتژیک قدرتمندی برای سازمان‌ها جهت کاهش ریسک، ایجاد اعتماد و کسب رهبری پایدار در اقتصاد دیجیتال محسوب می‌شوند.
مجموعه استانداردهای ISO/IEC JTC 1/SC 42 یک اکوسیستم جامع و در حال رشد را برای هدایت توسعه و استفاده مسئولانه از هوش مصنوعی تشکیل می‌دهند. از واژگان پایه و چارچوب‌های مفهومی گرفته تا مدیریت ریسک، قابلیت اعتماد، راهبری و سیستم مدیریت جامع، این استانداردها به سازمان‌ها کمک می‌کنند تا از مزایای AI بهره‌مند شوند و در عین حال ریسک‌ها و چالش‌های آن را مدیریت کنند.
شرکت بیکران راهکار به عنوان یک نهاد صدور گواهینامه، نقشی کلیدی در ارزیابی انطباق سازمان‌ها با ISO/IEC 42001:2023 (سیستم مدیریت هوش مصنوعی) ایفا می‌کند. دریافت گواهینامه ISO/IEC 42001 از یک نهاد معتبر مانند شرکت بیکران راهکار، نشان‌دهنده تعهد یک سازمان به بالاترین استانداردهای مدیریت مسئولانه AI است. برای سایر اسناد راهنما و گزارش‌های فنی، انتشارات بیکران راهکار می‌تواند به عنوان منبعی برای اطلاعات عمومی و برنامه‌های آموزشی عمل کند تا به سازمان‌ها در درک بهتر این چشم‌انداز پیچیده کمک نماید.


__________________________________

سوالات متداول راهنمای جامع استانداردهای ایزو هوش مصنوعی (AI): نقشه راه کسب‌وکار شما برای رهبری در عصر دیجیتال

بله، داشتن گواهینامه ISO 27001 پیاده‌سازی ISO 42001 را به طور قابل توجهی آسان‌تر می‌کند، اما این دو استاندارد اهداف متفاوتی را دنبال می‌کنند. هر دو استاندارد از ساختار سطح بالای Annex SL استفاده می‌کنند، بنابراین فرآیندهای مدیریتی اصلی مانند مدیریت ریسک، رهبری، تعیین اهداف، ممیزی داخلی و بازنگری مدیریت در آن‌ها مشترک است. این همپوشانی به سازمان‌ها اجازه می‌دهد تا AIMS (سیستم مدیریت هوش مصنوعی) را به راحتی در ISMS (سیستم مدیریت امنیت اطلاعات) موجود خود ادغام کنند.
تفاوت اصلی در کانون ریسک‌ها و کنترل‌ها است. ISO 27001 بر روی محرمانگی، یکپارچگی و در دسترس بودن اطلاعات (CIA Triad) تمرکز دارد. در مقابل، ISO 42001 علاوه بر این موارد، بر روی ریسک‌های منحصربه‌فرد هوش مصنوعی تمرکز می‌کند که در ضمیمه‌های کنترلی آن مشخص شده‌اند. این ریسک‌ها شامل سوگیری الگوریتمی، عدم شفافیت (جعبه سیاه)، قابلیت توضیح‌پذیری، ایمنی عملکردی، و تأثیرات اجتماعی و اخلاقی است. بنابراین، سازمانی که ISO 42001 را پیاده‌سازی می‌کند، باید فرآیند ارزیابی ریسک خود را گسترش دهد تا این ابعاد جدید را پوشش دهد و کنترل‌های مشخصی را برای مدیریت آن‌ها (مانند ارزیابی تأثیر AI، مدیریت کیفیت داده برای ML، و مستندسازی چرخه حیات مدل) اجرا کند.

"قابلیت توضیح‌پذیری" (XAI) که در استانداردهایی مانند TR 24028 و به طور ضمنی در کنترل‌های ISO 42001 به آن اشاره شده، به توانایی یک سیستم هوش مصنوعی برای ارائه توضیحات قابل فهم برای انسان در مورد نحوه رسیدن به یک تصمیم یا خروجی خاص اشاره دارد. این مفهوم به ویژه برای مدل‌های پیچیده مانند شبکه‌های عصبی عمیق که اغلب به عنوان "جعبه سیاه" عمل می‌کنند، حیاتی است.
از جنبه فنی، XAI به توسعه‌دهندگان و دانشمندان داده کمک می‌کند تا مدل‌های خود را اشکال‌زدایی (Debug) کنند، نقاط ضعف و سوگیری‌های پنهان را شناسایی کرده و عملکرد آن را بهبود بخشند. تکنیک‌های XAI مانند LIME و SHAP به ما نشان می‌دهند که کدام ویژگی‌های ورودی بیشترین تأثیر را بر تصمیم مدل داشته‌اند.
از جنبه تجاری و حقوقی، اهمیت آن حتی بیشتر است. در صنایع حساس مانند بانکداری (برای رد درخواست وام)، پزشکی (برای تشخیص بیماری) و قضایی، سازمان‌ها باید بتوانند دلایل تصمیمات خودکار خود را برای مشتریان و نهادهای نظارتی توضیح دهند. عدم توانایی در ارائه توضیح، می‌تواند منجر به از دست دادن اعتماد مشتری، جریمه‌های سنگین (مثلاً تحت GDPR) و آسیب‌های اعتباری جبران‌ناپذیر شود. بنابراین، قابلیت توضیح‌پذیری یک الزام فنی صرف نیست، بلکه یک رکن اساسی برای ایجاد اعتماد، پاسخگویی و انطباق با مقررات است.
استانداردهای ایزو، به ویژه سری در حال تدوین ISO/IEC 5259، "کیفیت داده" را به عنوان یک عامل حیاتی و بنیادین برای موفقیت هر پروژه هوش مصنوعی می‌شناسند. رویکرد آن‌ها فراتر از صرفاً "داده‌های تمیز" است و ابعاد مختلفی را در بر می‌گیرد که در سراسر چرخه حیات ML باید مدیریت شوند. این ابعاد شامل دقت (Accuracy)، کامل بودن (Completeness)، سازگاری (Consistency)، به‌روز بودن (Timeliness)، ارتباط (Relevance) و مهم‌تر از همه، نمایندگی (Representativeness) برای جلوگیری از سوگیری است.
برای انطباق، یک سازمان باید گام‌های عملی زیر را در فرآیندهای خود ادغام کند:
ایجاد پروفایل داده (Data Profiling): تحلیل آماری دیتاست‌ها برای درک توزیع، مقادیر گمشده و داده‌های پرت.
تعریف فرآیندهای پاک‌سازی و پیش‌پردازش داده: ایجاد رویه‌های استاندارد برای رسیدگی به نویز، داده‌های تکراری و فرمت‌بندی داده‌ها.
مدیریت برچسب‌گذاری داده (Data Labeling): تضمین کیفیت و سازگاری برچسب‌ها، به ویژه در یادگیری نظارت‌شده.
ارزیابی سوگیری در داده‌ها: تحلیل دیتاست‌ها برای اطمینان از اینکه گروه‌های جمعیتی مختلف به طور عادلانه نمایندگی شده‌اند.
نسخه‌بندی داده‌ها (Data Versioning): همانند کد، دیتاست‌ها نیز باید نسخه‌بندی شوند تا قابلیت بازتولید (Reproducibility) مدل‌ها تضمین شود.
مستندسازی تبار داده (Data Lineage): ثبت کامل منشأ، تاریخچه و تمام تبدیلات اعمال شده بر روی داده‌ها از منبع تا استفاده در مدل.
پیاده‌سازی این گام‌ها تضمین می‌کند که "سوخت" سیستم هوش مصنوعی شما از بالاترین کیفیت ممکن برخوردار است که مستقیماً به نتایج دقیق‌تر، عادلانه‌تر و قابل اعتمادتر منجر می‌شود.
افزودن دیدگاه جدید

Restricted HTML

  • تگ‌های HTML مجاز: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • خطوط و پاراگراف‌ها بطور خودکار اعمال می‌شوند.
  • Web page addresses and email addresses turn into links automatically.