ISO/IEC TR 24028

گزارش فنی ایزو/آی‌ای‌سی تی‌آر 24028:2020 (ISO/IEC TR 24028:2020 Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence)، با نام فارسی "فناوری اطلاعات – هوش مصنوعی – مروری بر قابلیت اعتماد در هوش مصنوعی"، یک سند راهنمای جامع است که توسط کمیته مشترک ISO/IEC JTC 1/SC 42 تهیه شده است. این گزارش فنی، مفاهیم، اصول، چالش‌ها و خصوصیات کلیدی مرتبط با توسعه و پیاده‌سازی هوش مصنوعی قابل اعتماد (Trustworthy AI) را تشریح می‌کند. خصوصیات مهمی مانند شفافیت، توضیح‌پذیری، استحکام، ایمنی، امنیت، انصاف، پاسخگویی، حریم خصوصی و نظارت انسانی در این سند مورد بررسی قرار می‌گیرند. ISO/IEC TR 24028 به عنوان یک گزارش فنی، الزامات قابل ممیزی برای صدور گواهینامه ارائه نمی‌دهد، اما به عنوان یک منبع اطلاعاتی بنیادین برای درک بهتر این حوزه نوظهور، پایه‌گذاری حکمرانی AI در سازمان‌ها، و آمادگی برای استانداردهای الزامات آینده مانند ISO/IEC 42001 (سیستم مدیریت هوش مصنوعی) عمل می‌کند. BRS.ir می‌تواند به سازمان‌ها در درک و به‌کارگیری راهنمایی‌های این گزارش فنی کمک نماید.

ISO 24028

پیام یا خواسته های خود را در این قسمت بنویسید. اگر  دقیقا نمی دانید که چه چیزی می خواهید و نیاز به مشاوره دارید، کارشناسان ما با شما تماس خواهند گرفت.

ایزو/آی‌ای‌سی تی‌آر 24028 (ISO/IEC TR 24028:2020): مروری بر هوش مصنوعی قابل اعتماد

نام انگلیسی استاندارد (گزارش فنی): ISO/IEC TR 24028:2020 Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence


نام فارسی استاندارد (گزارش فنی): ایزو/آی‌ای‌سی تی‌آر ۲۴۰۲۸:۲۰۲۰ فناوری اطلاعات – هوش مصنوعی – مروری بر قابلیت اعتماد در هوش مصنوعی

 

هوش مصنوعی (AI) به سرعت در حال دگرگون سازی صنایع، خدمات و جنبه‌های مختلف زندگی روزمره ما است. با افزایش قابلیت‌ها و نفوذ سیستم‌های هوش مصنوعی، نگرانی‌ها در مورد قابلیت اعتماد (Trustworthiness)، اخلاق و پیامدهای اجتماعی آن‌ها نیز افزایش یافته است. گزارش فنی ISO/IEC TR 24028:2020 که توسط کمیته مشترک فنی ISO و IEC (ISO/IEC JTC 1) و زیرکمیته SC 42 (هوش مصنوعی) تهیه شده، یک سند بنیادین و راهنما است که مروری جامع بر مفاهیم، اصول، چالش‌ها و ملاحظات کلیدی مرتبط با هوش مصنوعی قابل اعتماد ارائه می‌دهد.

مقدمه‌ای بر هوش مصنوعی قابل اعتماد (Trustworthy AI)

هوش مصنوعی قابل اعتماد به سیستم‌های AI اشاره دارد که به گونه‌ای طراحی، توسعه، پیاده‌سازی و مورد استفاده قرار می‌گیرند که با ارزش‌های انسانی و اصول اخلاقی همسو بوده، قوی (Robust)، ایمن، منصفانه، شفاف و پاسخگو باشند. هدف از توسعه هوش مصنوعی قابل اعتماد، ایجاد اطمینان در کاربران، ذینفعان و جامعه نسبت به عملکرد و نتایج سیستم‌های AI و به حداقل رساندن خطرات و آسیب‌های بالقوه آن‌ها است.

اهمیت هوش مصنوعی قابل اعتماد از جنبه‌های مختلفی قابل بررسی است:

پذیرش و اعتماد کاربر: کاربران تنها در صورتی به سیستم‌های AI اعتماد کرده و از آن‌ها استفاده خواهند کرد که مطمئن باشند این سیستم‌ها به طور قابل اعتماد، منصفانه و ایمن عمل می‌کنند.

کاهش خطرات و آسیب‌ها: سیستم‌های AI غیرقابل اعتماد می‌توانند منجر به تبعیض، نقض حریم خصوصی، خطاهای پرهزینه و حتی آسیب‌های فیزیکی شوند.

انطباق با مقررات: با توجه به رشد سریع AI، چارچوب‌های قانونی و نظارتی در حال ظهور هستند که سازمان‌ها را ملزم به رعایت اصول هوش مصنوعی قابل اعتماد می‌کنند (مانند قانون هوش مصنوعی اتحادیه اروپا - EU AI Act).

مسئولیت‌پذیری و حکمرانی: ایجاد چارچوب‌هایی برای پاسخگویی در قبال تصمیمات و اقدامات سیستم‌های AI ضروری است.

نوآوری پایدار: تمرکز بر قابلیت اعتماد، نوآوری در حوزه AI را به سمتی هدایت می‌کند که منافع بلندمدت جامعه را در نظر بگیرد.

گزارش فنی ISO/IEC TR 24028:2020 چیست؟

ISO/IEC TR 24028:2020 یک "گزارش فنی" (Technical Report - TR) است. مهم است که تفاوت بین یک گزارش فنی و یک استاندارد الزامات (مانند ISO 9001) را درک کنیم.

استانداردهای الزامات (Requirements Standards): مشخصات و الزاماتی را ارائه می‌دهند که یک محصول، فرآیند یا سیستم باید آن‌ها را برآورده کند. این استانداردها قابل ممیزی هستند و می‌توان بر اساس آن‌ها گواهینامه انطباق صادر کرد.

گزارش‌های فنی (Technical Reports - TRs): اسناد اطلاعاتی هستند که داده‌ها یا راهنمایی‌هایی متفاوت از آنچه معمولاً در یک استاندارد بین‌المللی منتشر می‌شود، ارائه می‌دهند. TRها حاوی اطلاعاتی مانند وضعیت فعلی دانش فنی، راهنمایی برای پیاده‌سازی استانداردها، یا مرور کلی یک حوزه خاص هستند. TRها الزامات قابل ممیزی برای صدور گواهینامه ارائه نمی‌دهند.

بنابراین، ISO/IEC TR 24028:2020 یک سند راهنما است که:

مروری جامع بر جنبه‌های مختلف قابلیت اعتماد در هوش مصنوعی ارائه می‌دهد.

مفاهیم کلیدی مرتبط با هوش مصنوعی قابل اعتماد را تعریف و تشریح می‌کند.

چالش‌ها، خطرات و فرصت‌های مرتبط با توسعه و استقرار سیستم‌های AI قابل اعتماد را بررسی می‌کند.

چارچوب‌ها و رویکردهای موجود برای دستیابی به قابلیت اعتماد در AI را معرفی می‌کند.

به عنوان یک نقطه مرجع مشترک برای ذینفعان مختلف (توسعه‌دهندگان، کاربران، سیاست‌گذاران، نهادهای استانداردسازی) عمل می‌کند.

این گزارش فنی به سازمان‌ها کمک می‌کند تا درک بهتری از پیچیدگی‌های هوش مصنوعی قابل اعتماد پیدا کرده و زمینه را برای توسعه استراتژی‌ها و پیاده‌سازی سیستم‌های AI مسئولانه فراهم کنند. به نقل از وب‌سایت ISO (iso.org)، این گزارش فنی با هدف "ارائه درک مشترک از قابلیت اعتماد در AI و شناسایی حوزه‌هایی که نیاز به استانداردسازی بیشتر دارند" تهیه شده است.

خانواده و استانداردهای مرتبط (اکوسیستم استانداردهای AI)

ISO/IEC TR 24028 بخشی از مجموعه گسترده‌تری از استانداردها و گزارش‌های فنی است که توسط ISO/IEC JTC 1/SC 42 (کمیته فنی مشترک ۱ سازمان بین‌المللی استانداردسازی و کمیسیون بین‌المللی الکتروتکنیک، زیرکمیته ۴۲ در حوزه هوش مصنوعی) در حال توسعه است. این زیرکمیته مسئولیت توسعه استانداردهای بین‌المللی برای هوش مصنوعی را بر عهده دارد و یک اکوسیستم کامل از استانداردها را برای پوشش جنبه‌های مختلف AI ایجاد می‌کند.

برخی از استانداردهای کلیدی و مرتبط با ISO/IEC TR 24028 در این اکوسیستم عبارتند از:

ISO/IEC 22989:2022: فناوری اطلاعات – هوش مصنوعی – مفاهیم و واژگان هوش مصنوعی. (Artificial intelligence concepts and terminology)

این استاندارد یک واژه‌نامه جامع و مشترک برای مفاهیم کلیدی AI ارائه می‌دهد که برای درک سایر استانداردها ضروری است.

ISO/IEC 23053:2022: چارچوبی برای سیستم‌های هوش مصنوعی (AI) با استفاده از یادگیری ماشین (ML). (Framework for Artificial Intelligence (AI) Systems Using Machine Learning (ML))

ISO/IEC 23894:2023: فناوری اطلاعات – هوش مصنوعی – مدیریت ریسک. (Artificial intelligence — Risk management)

این استاندارد راهنمایی‌هایی برای مدیریت ریسک‌های مرتبط با سیستم‌های AI ارائه می‌دهد که برای قابلیت اعتماد حیاتی است.

ISO/IEC 42001:2023: فناوری اطلاعات – هوش مصنوعی – سیستم مدیریت. (Artificial intelligence — Management system)

این یک استاندارد سیستم مدیریتی قابل گواهی شدن است که الزاماتی را برای ایجاد، پیاده‌سازی، نگهداری و بهبود مستمر یک سیستم مدیریت هوش مصنوعی (AIMS) در سازمان‌ها ارائه می‌دهد. TR 24028 می‌تواند به عنوان یک منبع اطلاعاتی مفید برای پیاده‌سازی AIMS عمل کند.

ISO/IEC TR 24027:2021: فناوری اطلاعات – هوش مصنوعی – مسائل مربوط به سوگیری (Bias) در سیستم‌های هوش مصنوعی و تصمیم‌گیری مبتنی بر هوش مصنوعی. (Bias in AI systems and AI aided decision making)

ISO/IEC TR 24029-1:2021: هوش مصنوعی (AI) – ارزیابی عملکرد طبقه‌بندی سیستم‌های هوش مصنوعی – بخش ۱: اصول و مفاهیم کلی. (Assessment of the robustness of neural networks — Part 1: Overview) (توجه: این ممکن است به سمت ISO/IEC 12207 متمایل باشد یا نسخه‌های جدیدتر آن مانند سری ISO/IEC/IEEE 29119 برای تست نرم‌افزار و ISO/IEC 5055 برای کیفیت نرم‌افزار) – نیاز به بررسی دقیق‌تر شماره استانداردها برای بحث استحکام (Robustness) وجود دارد، اما به طور کلی استانداردهایی برای کیفیت و تست نرم‌افزار به استحکام AI کمک می‌کنند. به طور خاص برای استحکام شبکه‌های عصبی: ISO/IEC TR 24029-1:2021 Artificial intelligence (AI) — Assessment of the robustness of neural networks — Part 1: Overview و ISO/IEC AWI TS 6254 (Robustness of artificial intelligence systems).

ISO/IEC 5338:2023: فناوری اطلاعات – هوش مصنوعی – فرآیندهای چرخه عمر سیستم هوش مصنوعی. (Information technology — Artificial intelligence — AI system life cycle processes)

استانداردهای مرتبط با اخلاق و حکمرانی داده: مانند سری ISO/IEC 27000 برای امنیت اطلاعات و سری ISO/IEC 29100 برای چارچوب حریم خصوصی.

ISO/IEC TR 24028 به عنوان یک سند "مرور کلی" (Overview)، زمینه را برای درک بهتر و استفاده از این استانداردهای تخصصی‌تر فراهم می‌کند.

مفاهیم و خصوصیات کلیدی هوش مصنوعی قابل اعتماد مطرح شده در ISO/IEC TR 24028

گزارش فنی ISO/IEC TR 24028 به بررسی چندین خصوصیت (Characteristics) یا جنبه (Aspects) کلیدی می‌پردازد که برای دستیابی به هوش مصنوعی قابل اعتماد ضروری هستند. اگرچه این TR خود الزامات دقیقی را مشخص نمی‌کند، اما این خصوصیات را به عنوان حوزه‌های مهم برای توجه و استانداردسازی آتی شناسایی می‌کند. این خصوصیات اغلب در سایر چارچوب‌های معتبر مانند راهنمای اخلاقی اتحادیه اروپا برای هوش مصنوعی قابل اعتماد (EU Ethics Guidelines for Trustworthy AI) و چارچوب مدیریت ریسک هوش مصنوعی NIST (NIST AI Risk Management Framework) نیز منعکس شده‌اند.

این خصوصیات معمولاً شامل موارد زیر (یا مفاهیم مشابه) هستند:

شفافیت (Transparency):

به قابلیت درک نحوه عملکرد یک سیستم AI، داده‌های مورد استفاده، و فرآیندهای تصمیم‌گیری آن اشاره دارد.

شامل مستندسازی مناسب، قابلیت ردیابی داده‌ها و مدل‌ها، و در صورت امکان، ارائه توضیحاتی در مورد تصمیمات اتخاذ شده توسط سیستم AI (Explainability).

توضیح‌پذیری (Explainability / Interpretability):

توانایی ارائه توضیحات قابل فهم برای انسان در مورد خروجی‌ها و تصمیمات یک سیستم AI. این امر به ویژه برای سیستم‌های پیچیده مانند مدل‌های یادگیری عمیق (Deep Learning) حیاتی است.

توضیح‌پذیری به کاربران کمک می‌کند تا به تصمیمات سیستم اعتماد کنند، خطاها را شناسایی کنند و مسئولیت‌پذیری را بهبود بخشند.

استحکام و قابلیت اطمینان (Robustness and Reliability):

به توانایی یک سیستم AI برای عملکرد صحیح و پایدار در شرایط مختلف، از جمله مواجهه با داده‌های غیرمنتظره یا حملات مخرب، اشاره دارد.

شامل دقت (Accuracy)، تاب‌آوری (Resilience) در برابر خطاها و حملات، و قابلیت تکرارپذیری (Reproducibility) نتایج.

ایمنی (Safety):

اطمینان از اینکه سیستم AI در طول چرخه عمر خود، آسیب غیرقابل قبولی به افراد، اموال یا محیط زیست وارد نمی‌کند.

این شامل پیش‌بینی، جلوگیری و کاهش خطرات ایمنی مرتبط با عملکرد سیستم AI است.

امنیت (Security):

محافظت از سیستم AI، داده‌ها و فرآیندهای آن در برابر دسترسی‌های غیرمجاز، حملات سایبری، دستکاری و سایر تهدیدات امنیتی.

امنیت برای حفظ یکپارچگی، محرمانگی و در دسترس بودن سیستم AI و داده‌های آن ضروری است.

انصاف و عدم تبعیض (Fairness and Non-discrimination):

اطمینان از اینکه سیستم AI تصمیمات و نتایج منصفانه‌ای ارائه می‌دهد و منجر به تبعیض ناعادلانه علیه افراد یا گروه‌ها بر اساس ویژگی‌های حساس (مانند نژاد، جنسیت، سن و غیره) نمی‌شود.

این امر نیازمند شناسایی و کاهش سوگیری‌ها (Bias) در داده‌ها، الگوریتم‌ها و مدل‌های AI است. ISO/IEC TR 24027 به طور خاص به این موضوع می‌پردازد.

پاسخگویی و حسابرسی (Accountability and Auditability):

ایجاد مکانیسم‌هایی برای تعیین مسئولیت در قبال توسعه، پیاده‌سازی و عملکرد سیستم‌های AI.

شامل قابلیت ردیابی تصمیمات، ثبت وقایع (Logging) و امکان حسابرسی مستقل از سیستم.

حریم خصوصی (Privacy):

حفاظت از اطلاعات شخصی افراد که توسط سیستم AI جمع‌آوری، پردازش یا ذخیره می‌شود.

این امر مستلزم رعایت اصول حفاظت از داده‌ها (مانند GDPR در اروپا) و استفاده از تکنیک‌های حفظ حریم خصوصی (مانند Privacy-Preserving Machine Learning) است.

نظارت و کنترل انسانی (Human Agency and Oversight):

اطمینان از اینکه انسان‌ها همواره کنترل نهایی بر سیستم‌های AI را حفظ می‌کنند و می‌توانند در صورت لزوم در عملکرد آن‌ها مداخله کرده یا آن را متوقف کنند.

سیستم‌های AI باید به عنوان ابزاری برای توانمندسازی انسان‌ها عمل کنند، نه جایگزینی کامل آن‌ها، به ویژه در تصمیم‌گیری‌های حساس.

رفاه اجتماعی و زیست‌محیطی (Societal and Environmental Well-being):

در نظر گرفتن تأثیرات گسترده‌تر سیستم‌های AI بر جامعه و محیط زیست و تلاش برای به حداکثر رساندن منافع مثبت و به حداقل رساندن آسیب‌های احتمالی.

ISO/IEC TR 24028 این خصوصیات را در یک چارچوب کلی ارائه می‌دهد و به عنوان پایه‌ای برای بحث‌های بیشتر و توسعه استانداردهای خاص‌تر عمل می‌کند.

چرخه عمر سیستم هوش مصنوعی و قابلیت اعتماد

گزارش فنی ISO/IEC TR 24028 به اهمیت در نظر گرفتن قابلیت اعتماد در تمام مراحل چرخه عمر یک سیستم AI اشاره دارد. استاندارد ISO/IEC 5338 به طور خاص فرآیندهای چرخه عمر سیستم AI را پوشش می‌دهد، اما اصول قابلیت اعتماد باید در هر مرحله مد نظر قرار گیرند:

مفهوم‌سازی و طراحی (Conception and Design):

تعریف اهداف با در نظر گرفتن اصول اخلاقی و قابلیت اعتماد.

شناسایی ریسک‌های بالقوه مرتبط با قابلیت اعتماد (با کمک ISO/IEC 23894).

انتخاب معماری و الگوریتم‌هایی که شفافیت، انصاف و استحکام را تقویت می‌کنند.

توسعه و آموزش مدل (Development and Training):

جمع‌آوری و آماده‌سازی داده‌ها با توجه به کیفیت، نمایندگی و سوگیری‌های بالقوه.

توسعه و آموزش مدل‌های AI با استفاده از روش‌هایی که قابلیت اعتماد را بهبود می‌بخشند.

آزمایش و اعتبارسنجی دقیق مدل برای ارزیابی عملکرد، استحکام، انصاف و سایر خصوصیات.

پیاده‌سازی و استقرار (Implementation and Deployment):

ادغام ایمن سیستم AI در محیط عملیاتی.

اطمینان از وجود مکانیسم‌های نظارت و کنترل انسانی.

عملیات و نگهداری (Operation and Maintenance):

پایش مستمر عملکرد سیستم AI برای شناسایی هرگونه کاهش در قابلیت اعتماد (مانند Drift در مدل یا ظهور سوگیری‌های جدید).

به‌روزرسانی و آموزش مجدد مدل‌ها در صورت لزوم.

مدیریت حوادث و پاسخ به مشکلات مرتبط با قابلیت اعتماد.

از کار انداختن (Decommissioning):

از کار انداختن ایمن و مسئولانه سیستم AI و مدیریت داده‌های مرتبط با آن.

مزایای استفاده از راهنمایی‌های ISO/IEC TR 24028

اگرچه ISO/IEC TR 24028 یک استاندارد الزامات نیست و منجر به صدور گواهینامه نمی‌شود، اما استفاده از آن به عنوان یک راهنمای فنی می‌تواند مزایای قابل توجهی برای سازمان‌ها داشته باشد:

ایجاد درک مشترک: فراهم کردن یک زبان و چارچوب مشترک برای بحث در مورد هوش مصنوعی قابل اعتماد در داخل سازمان و با ذینفعان خارجی.

شناسایی ریسک‌ها و فرصت‌ها: کمک به شناسایی ریسک‌های بالقوه مرتبط با سیستم‌های AI و همچنین فرصت‌هایی برای نوآوری مسئولانه.

پایه‌گذاری برای حکمرانی AI: ارائه مبانی برای توسعه سیاست‌ها، رویه‌ها و چارچوب‌های حکمرانی داخلی برای هوش مصنوعی.

آمادگی برای استانداردهای آینده و مقررات: با درک مفاهیم مطرح شده در TR 24028، سازمان‌ها می‌توانند خود را برای انطباق با استانداردهای الزامات آینده (مانند ISO/IEC 42001) و مقررات نوظهور (مانند EU AI Act) آماده کنند.

افزایش اعتماد ذینفعان: نشان دادن تعهد سازمان به توسعه و استفاده مسئولانه از هوش مصنوعی می‌تواند اعتماد مشتریان، شرکا و جامعه را افزایش دهد.

هدایت نوآوری مسئولانه: تشویق به طراحی و توسعه سیستم‌های AI که نه تنها کارآمد، بلکه اخلاقی و قابل اعتماد نیز باشند.

بهبود کیفیت و عملکرد سیستم‌های AI: تمرکز بر خصوصیات قابلیت اعتماد می‌تواند منجر به توسعه سیستم‌های AI قوی‌تر، ایمن‌تر و منصفانه‌تر شود.

"شرایط اخذ گواهینامه" یا معادل آن برای ISO/IEC TR 24028

همانطور که پیشتر ذکر شد، ISO/IEC TR 24028:2020 یک گزارش فنی است و نه یک استاندارد الزامات قابل ممیزی. بنابراین، هیچ "گواهینامه انطباق" مستقیمی برای این گزارش فنی وجود ندارد. سازمان‌ها نمی‌توانند "گواهینامه ISO/IEC TR 24028" دریافت کنند.

با این حال، سازمان‌ها می‌توانند:

از TR 24028 به عنوان راهنما استفاده کنند: برای درک مفاهیم هوش مصنوعی قابل اعتماد و شناسایی بهترین شیوه‌ها.

دانش خود را نشان دهند: با شرکت در دوره‌های آموزشی یا کارگاه‌های مرتبط با هوش مصنوعی قابل اعتماد و مفاهیم مطرح شده در TR 24028، افراد می‌توانند دانش و آگاهی خود را در این زمینه افزایش دهند. BRS.ir می‌تواند چنین برنامه‌های آموزشی را ارائه دهد.

برای استانداردهای قابل گواهی شدن آماده شوند: TR 24028 می‌تواند به عنوان یک گام مقدماتی برای پیاده‌سازی استانداردهای سیستم مدیریتی مانند ISO/IEC 42001 (سیستم مدیریت هوش مصنوعی) عمل کند. سازمان‌ها می‌توانند برای ISO/IEC 42001 گواهینامه دریافت کنند، و TR 24028 به درک اصول زیربنایی آن کمک می‌کند.

ارزیابی‌های انطباق داخلی یا شخص ثالث (غیر رسمی): یک سازمان می‌تواند از یک مشاور یا یک نهاد ثالث بخواهد تا میزان همسویی رویکردها و سیستم‌های AI خود را با راهنمایی‌های ارائه شده در TR 24028 ارزیابی کند. این یک "صحه‌گذاری" یا "تأیید" رسمی نخواهد بود، بلکه بیشتر یک ارزیابی شکاف (Gap Assessment) یا بررسی انطباق با بهترین شیوه‌ها است.

چالش‌های پیاده‌سازی عملی هوش مصنوعی قابل اعتماد

با وجود راهنمایی‌های موجود، پیاده‌سازی عملی هوش مصنوعی قابل اعتماد با چالش‌هایی همراه است:

پیچیدگی فنی: برخی از خصوصیات قابلیت اعتماد (مانند توضیح‌پذیری برای مدل‌های پیچیده) از نظر فنی چالش‌برانگیز هستند.

کیفیت و سوگیری داده‌ها: دسترسی به داده‌های با کیفیت بالا، نماینده و بدون سوگیری برای آموزش مدل‌های AI منصفانه و قوی دشوار است.

تعادل بین خصوصیات: گاهی اوقات ممکن است بین خصوصیات مختلف قابلیت اعتماد تضاد وجود داشته باشد (مثلاً بین دقت و توضیح‌پذیری، یا بین حریم خصوصی و شفافیت).

فقدان استانداردها و معیارهای کمی‌شده: برای برخی از خصوصیات (مانند انصاف یا توضیح‌پذیری)، هنوز استانداردها و معیارهای کمی‌شده و پذیرفته‌شده جهانی به طور کامل توسعه نیافته‌اند.

نیاز به تخصص چند رشته‌ای: توسعه هوش مصنوعی قابل اعتماد نیازمند همکاری متخصصان از رشته‌های مختلف (فنی، حقوقی، اخلاقی، اجتماعی) است.

هزینه و منابع: پیاده‌سازی رویکردهای هوش مصنوعی قابل اعتماد ممکن است نیازمند سرمایه‌گذاری اولیه در زمان، منابع و تخصص باشد.

آینده هوش مصنوعی قابل اعتماد و نقش استانداردها

هوش مصنوعی قابل اعتماد یک حوزه در حال تحول سریع است. انتظار می‌رود در آینده شاهد موارد زیر باشیم:

توسعه بیشتر استانداردها: ISO/IEC JTC 1/SC 42 و سایر نهادهای استانداردسازی به توسعه استانداردهای دقیق‌تر و تخصصی‌تر برای جنبه‌های مختلف هوش مصنوعی قابل اعتماد ادامه خواهند داد.

افزایش مقررات‌گذاری: دولت‌ها در سراسر جهان به تدوین و اجرای مقررات برای اطمینان از توسعه و استفاده مسئولانه از AI خواهند پرداخت.

توسعه ابزارها و تکنیک‌های جدید: ابزارها و تکنیک‌های جدیدی برای ارزیابی، پایش و بهبود قابلیت اعتماد سیستم‌های AI توسعه خواهند یافت.

افزایش آگاهی و تقاضای عمومی: با افزایش آگاهی عمومی، تقاضا برای سیستم‌های AI قابل اعتماد از سوی مصرف‌کنندگان، کسب‌وکارها و جامعه افزایش خواهد یافت.

نتیجه‌گیری

گزارش فنی ISO/IEC TR 24028:2020 (فناوری اطلاعات – هوش مصنوعی – مروری بر قابلیت اعتماد در هوش مصنوعی) یک منبع اطلاعاتی ارزشمند و بنیادین برای همه سازمان‌ها و افرادی است که با توسعه، پیاده‌سازی یا استفاده از سیستم‌های هوش مصنوعی سروکار دارند. اگرچه این سند منجر به صدور گواهینامه نمی‌شود، اما درک عمیقی از مفاهیم، چالش‌ها و خصوصیات کلیدی هوش مصنوعی قابل اعتماد ارائه می‌دهد. این گزارش فنی به عنوان یک نقشه راه و نقطه شروع برای حرکت به سمت اکوسیستم AI مسئولانه‌تر، اخلاقی‌تر و در نهایت، قابل اعتمادتر عمل می‌کند.

BRS.ir متعهد است تا با ارائه آموزش‌ها و خدمات مشاوره‌ای تخصصی، سازمان‌ها را در پیمودن این مسیر پیچیده و حیاتی یاری رساند و به آن‌ها در ساختن آینده‌ای که در آن هوش مصنوعی در خدمت بشریت و ارزش‌های انسانی باشد، کمک کند.

 

 

 

 

 

 

 

سوالات متداول ISO/IEC TR 24028: مروری جامع بر هوش مصنوعی قابل اعتماد (Trustworthy AI) – راهنمای فنی برای سازمان‌ها

ISO/IEC TR 24028 یک "گزارش فنی" (Technical Report - TR) است که مروری جامع بر مفاهیم و خصوصیات "هوش مصنوعی قابل اعتماد" ارائه می‌دهد. تفاوت اصلی آن با یک استاندارد معمولی (مانند ایزو 9001 یا ایزو 42001) این است که TR 24028 حاوی الزامات قابل ممیزی نیست و نمی‌توان بر اساس آن "گواهینامه انطباق" صادر کرد. این سند بیشتر جنبه اطلاعاتی و راهنمایی دارد تا به سازمان‌ها در درک این حوزه پیچیده کمک کند.
خیر، از آنجایی که ISO/IEC TR 24028 یک گزارش فنی است و نه یک استاندارد الزامات، هیچ فرآیند رسمی برای صدور "گواهینامه" برای آن وجود ندارد. با این حال، سازمان‌ها می‌توانند از راهنمایی‌های آن برای بهبود سیستم‌های هوش مصنوعی خود و آماده شدن برای استانداردهای قابل گواهی شدن مانند ISO/IEC 42001 (سیستم مدیریت هوش مصنوعی) استفاده کنند.
مهم‌ترین کاربرد آن، ایجاد یک درک مشترک و چارچوب مفهومی برای پرداختن به موضوع پیچیده "هوش مصنوعی قابل اعتماد" است. این گزارش به سازمان شما کمک می‌کند تا ریسک‌های مرتبط با AI را بهتر شناسایی کرده، اصول اخلاقی و فنی برای توسعه AI مسئولانه را درک کند، و خود را برای مقررات و استانداردهای آینده در این حوزه آماده سازد. این امر می‌تواند به افزایش اعتماد مشتریان و ذینفعان و هدایت نوآوری به شیوه‌ای پایدارتر کمک کند.
افزودن دیدگاه جدید

Restricted HTML

  • تگ‌های HTML مجاز: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • خطوط و پاراگراف‌ها بطور خودکار اعمال می‌شوند.
  • Web page addresses and email addresses turn into links automatically.