استفاده از هوش مصنوعی برای جلوگیری از خطرات

اخیرا برخی از دانشمندان برای جلوگیری از خطرات پیش آمده، هوش مصنوعی مسئولانه را تولید کردند.

گاهی اوقات هوش مصنوعی، افراد و شرکت‌ها را در معرض مجموعه‌ای از خطراتی قرار می‌د‌هد که در ابتدا کار، مهندسان می‌توانستند با ارزیابی آن‌ها را بر طرف کنند.

به گزارش سایت venturebea؛ در این مواقع پای هوش مصنوعی مسئول به فرایند کاری باز می‌شود. یعنی یک چارچوب حاکمیتی که نحوه رسیدگی یک سازمان خاص به چالش‌های اخلاقی و قانونی پیرامون هوش مصنوعی را مستند می‌کند. اما سوال اینجاست که اگر به واسطه هوش مصنوعی مشکلی پیش بیاید چه کسی پاسخگو است؟

براساس گزارش‌ها، تنها ۳۵ درصد از مصرف کنندگان جهانی به نحوه پیاده سازی هوش مصنوعی اعتماد دارند و ۷۷ درصد فکر می‌کنند که شرکت‌ها باید مسئول سوء استفاده از هوش مصنوعی باشند.

اما توسعه استاندارد‌های اخلاقی و قابل اعتماد هوش مصنوعی تا حد زیادی به صلاحدید کسانی است که مدل‌های الگوریتمی این هوش را برای یک شرکت می‌نویسند و استفاده می‌کنند. بدون خط مشی و فرآیند تعریف شده ای، هیچ راهی برای ایجاد پاسخگویی و تصمیم گیری آگاهانه در مورد نحوه سازگار نگه داشتن برنامه‌های کاربردی هوش مصنوعی و سودآوری برند‌ها وجود ندارد.

هوش مصنوعی

یکی دیگر از چالش‌های اصلی یادگیری ماشینی، شکاف عظیم تخصص هوش مصنوعی است که بین سیاست گذاران، دانشمندان و توسعه دهندگان وجود دارد. ذینفعانی که مدیریت ریسک را درک می‌کنند، لزوماً ابزار لازم برای به کارگیری مجموعه مهارت‌ها را در عملیات یادگیری ماشین و اعمال حاکمیت و کنترل‌های صحیح ندارند.

گفته شده، این مشکلات به عنوان الهام بخش Credo AI مستقر در پالو آلتو بود که در سال ۲۰۲۰ برای پر کردن شکاف بین دانش فنی سیاست گذاران و دانش اخلاقی دانشمندان داده به منظور اطمینان از توسعه پایدار هوش مصنوعی تأسیس شد.

عملی کردن هوش مصنوعی مسئول

ناورینا سینگ، مدیر عامل یک شرکت هوش مصنوعی، گفت: "ما اولین پلتفرم مدیریت هوش مصنوعی مسئولانه را ایجاد کردیم، زیرا فرصتی را دیدیم تا به شرکت‌ها کمک کنیم تا سیستم‌های هوش مصنوعی و مدل‌های یادگیری ماشین خود را با ارزش‌های انسانی هماهنگ کنند. "
سینگ پس از پایان دور مالی ۱۲.۸ میلیون دلاری سری A به رهبری ساندز کپیتال، امیدوار است بتواند مدیریت مسئول هوش مصنوعی را به شرکت‌های بیشتری در سراسر جهان برساند. این بودجه برای تسریع توسعه محصول، ایجاد یک تیم قوی برای عرضه به بازار برای پیشبرد رهبری مسئولیت‌پذیر در بخش هوش مصنوعی Credo AI و تقویت عملکرد سیاست فناوری برای پشتیبانی از استاندارد‌ها و مقررات در حال ظهور استفاده می‌شود.

استفاده از هوش مصنوعی

آینده حکمرانی هوش مصنوعی

سینگ خاطرنشان می‌کند که او آینده‌ای را متصور است که در آن شرکت‌ها هوش مصنوعی مسئول را به روشی که امنیت سایبری انجام می‌دهند در اولویت قرار می‌دهند. او می‌گوید: همانند آنچه که در زمینه تغییرات آب و هوایی و امنیت سایبری می‌بینیم، قرار است شاهد افشای اطلاعات بیشتر در مورد داده‌ها و سیستم‌های هوش مصنوعی باشیم.


بیشتر بخوانید


پیام رسان های باشگاه خبرنگاران - پایین شرح خبر
اخبار پیشنهادی
تبادل نظر
نام:
ایمیل:
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
* نظر: