نکاتی برای مدیریت ریسک هوش مصنوعی در خدمات مالی
به گزارش گروه تحقیق و ترجمه عصربانک؛ صندوقها در حال حاضر از طیف وسیعی از راهحلهای مبتنی بر فناوری، مثل الگوریتمهای معاملاتی پیشرفته، هوش مصنوعی و یادگیری ماشینی، برای ارائه خدمات بهتر به مشتریان خود استفاده میکنند.
ریسک هوش مصنوعی در خدمات مالی
با این حال، صرف نظر از این پیشرفتهای فناوری، صندوقها و بانکها باید تعهدات خود را برای رعایت قوانین اوراق بهادار و قوانین و مقررات مربوطه در نظر بگیرند.
اصطلاح “هوش مصنوعی” گاهی اوقات برای تعیین مجموعهای از راه حلهایی که نیاز به ورودیهای متفاوتی دارند، به طور آزاد استفاده میشود. در اینجا چند مسئله کلیدی وجود دارد که صندوقها و بانکها باید بدانند، زیرا هر فناوری خطرات خاص خود را دارد:
قدرت هوش مصنوعی و تجزیه و تحلیل دادههای پیشرفته در توانایی آن در تقویت تصمیمگیری انسانی نهفته است. اگرچه رایانهها به طور فزایندهای قادر به انجام وظایف متنوعی هستند که به طور سنتی با هوش انسانی مرتبط است، اما هیچ فناوری واقعاً مستقل از انسان نیست و شرکتهایی که از استراتژیهای هوش مصنوعی استفاده میکنند باید خطمشیها و رویههایی را برای آزمایش مناسب هوش مصنوعی از نظر اثربخشی قبل و بعد از استقرار اجرا کنند و به منظور اطمینان از انطباق با اهداف در نظر گرفته شده به نظارت ادامه دهند.
در اینجا، اصطلاح “AI” در سطح بالا و به جای یادگیری ماشین و یادگیری عمیق، در مورد فناوری که از دادهها، صرف نظر از شکل و کمیت، برای بهبود عملکرد استفاده می کند، استفاده می شود. در زیر به طور خلاصه برخی از ملاحظات کلیدی برای ایجاد یک چارچوب هوش مصنوعی آمده است.
1- حفاظت از داده مشتریان
هرچه برنامه پیچیدهتر باشد، ردیابی یک خط مستقیم از برنامه تا نتیجه ممکن است دشوارتر باشد. با این حال، برای انطباق با اهداف مدنظر، صندوقها و بانکها باید قادر به حفظ کنترل کافی بر تصمیمات هوش مصنوعی باشند.
این امر تحت قوانین و مقررات اوراق بهادار ایالات متحده وجود دارد تا نشان دهد صندوق یا بانک به درستی دستورالعملهای مشتری را اجرا می کند. علاوه بر این، بر اساس مقررات عمومی حفاظت از دادهها (GDPR) در اتحادیه اروپا، صندوقها و بانکها باید بتوانند به مشتریان توضیح دهند که چه دادههایی جمعآوری میشوند و دقیقاً چگونه دادههای آنها استفاده میشود، و این مستلزم توضیح نحوه عملکرد راهحلهای خودکار است. در نهایت، صندوقها و بانکها باید بتوانند تصمیمات هوش مصنوعی را ردیابی کنند تا اطمینان حاصل شود که این تصمیمات با اهداف خود صندوق یا بانک همسو هستند. این شامل مستندسازی تمام مراحل راه حل های هوش مصنوعی، از جمله تست و تایید، آموزش، نظارت و نگهداری است.
2- تغذیه الگوریتمها با دادههای ناقص یا نادرست
تغذیه الگوریتمها با دادههای ناقص یا نادرست، دلیل اصلی خروجیهای اشتباه هوش مصنوعی است.
بنابراین، مدیران ریسک در تمام صنایع به طور فزایندهای نگران سوگیری ناخواسته هوش مصنوعی هستند، مانند زمانی که منابع داده ناقص یا حاوی اطلاعات مغرضانه ناخواسته هستند. بنابراین فرآیندهای آزمایش و کنترلهای دقیق دادهها، مدلها و استفاده انسانی از هوش مصنوعی میتواند به اطمینان از یکپارچگی دادهها و کاهش خطر سوگیریها و خطاهای ناخواسته کمک کند.
3- شفافیت و قابلیت توضیح فرایند هوش مصنوعی
هوش مصنوعی گاهی اوقات به عنوان “جعبه سیاه” شناخته میشود زیرا ارتباط بین ورودیها و خروجیها همیشه واضح نیست و درک عملکرد داخلی دشوار است. این خطر مغایرت بین کدهای برنامه و تراکنشهای حاصل را به همراه دارد.
مشکل “جعبه سیاه” همچنین ممکن است باعث ایجاد عدم شفافیت برای مدیران دارایی و مشتریان شود – به عنوان مثال، اگر آنها ندانند هوش مصنوعی چگونه تصمیمات خود را اتخاذ میکند، ممکن است به آن اعتماد نکنند. مدیران ممکن است نتوانند به رگولاتورها توضیح دهند که در تراکنشهای پیچیده هوش مصنوعی که حاوی لایههای تصمیم گیری پنهان است چگونه تصمیم گیری میشود. شفافیت و قابلیت توضیح به فرآیند مدلسازی کلید هر چارچوب هوش مصنوعی مسئول است.
4- یکپارچگی دادهها
همانطور که گفته شد، راهحلهای هوش مصنوعی به گونهای برنامهریزی شدهاند که با اصلاح روش تصمیمگیری در طول زمان، دادهها را به روشی متفاوت پردازش کنند،. نتیجه این فرآیند این است که تصمیمات هوش مصنوعی فقط به اندازه ورودی ها خوب هستند. نتایج اولیه احتمالاً کیفیت کمتری نسبت به نتایج بعدی دارند
ثانیاً، اگر پس از اتخاذ اولین تصمیمها، دادهها همچنان محدود یا غیرقابل دسترسی باشند، نتایج ممکن است با نرخ مورد انتظار بهبود نیابند. به عبارت ساده، اثربخشی هوش مصنوعی به در دسترس بودن داده های کافی و با کیفیت بستگی دارد.
5- حاکمیت شرکتی
سرعت سریعی که فناوری با آن تکامل مییابد، مستلزم حاکمیت شرکتی قوی برای آگاه ماندن و همگام بودن با فناوری است. بنابراین طراحی مدلها و فرآیندهای عملیاتی هوش مصنوعی برای بهبود پاسخگویی، شفافیت و کیفیت بسیار مهم هستند.
رگولاتورها انتظار دارند که صندوقها و بانکهای دارای حاکمیت و کنترلهای قوی و موثر، از جمله چارچوب مدیریت ریسک (RMF) برای شناسایی، ارزیابی، کنترل و نظارت بر ریسکهای مرتبط با هر برنامه هوش مصنوعی باشند.
6- خطاهای هوش مصنوعی
با سرعتی که هوش مصنوعی در آن تکامل مییابد، امکان بزرگنمایی خطاها وجود دارد. از آنجایی که هوش مصنوعی برای «یادگیری» از ورودی ها استفاده میکند، هر خطایی که در اوایل اجرای برنامه رخ دهد ممکن است به سرعت به یک مشکل در مقیاس بزرگ تبدیل شود.
بهروزرسانیها باید تا حد امکان به آرامی اجرا شوند و در عین حال خطرات مربوط به تراکنشهای آتی، معلق یا تکمیلشده را به حداقل برسانند. با این حال، ممکن است هنگام ارتقاء هوش مصنوعی، اشکال یا اشکالاتی رخ دهد و همچنین ممکن است مشکلاتی در مورد دسترسی یا استفاده از داده های قدیمی وجود داشته باشد. صندوقها و بانکها باید فرآیندها و رویههایی برای مستندسازی و شناسایی منطق یا استدلال معیوب و همچنین پروتکلهای اصلاحی را داشته باشند.
7- امنیت
افزایش وابستگی به هوش مصنوعی ممکن است آسیبپذیریهای امنیتی بیشتری ایجاد کند. صندوقها و بانکها باید رویههای مناسبی را برای اعتبارسنجی دقیق، نظارت مستمر، راستیآزمایی و آزمایش داشته باشند.
8- هزینه
اگرچه راهحلهای هوش مصنوعی توسط صندوقها و بانکها به منظور کاهش هزینهها اتخاذ شدهاند، اما ممکن است پس از ارزیابی ریسکهای دیگر، همیشه مقرونبهصرفهترین راهحل نباشند. این بستگی به درجه شخصی سازی مورد نیاز صندوق و بانک و هزینه ارائه شده دارد. راه حلهای هوش مصنوعی همچنین به کارکنان فنی ماهر برای طراحی، نگهداری و اجرای سیستم ها نیاز دارند.
علاوه بر این، آنچه در یک بخش به خوبی کار میکند ممکن است در بخش دیگر بسیار متفاوت باشد. به عنوان مثال، یک نظرسنجی که اخیراً توسط انجمن مدیریت مالی اروپا با مشارکت Deloitte انجام شد، نشان میدهد که بخشهای بانکی و بیمه تأثیر هوش مصنوعی را متفاوت ارزیابی میکنند. اگرچه هوش مصنوعی یک گزینه مناسب برای ارائه خدمات مشتری جذاب برای بانکها است، اما برای شرکت های بیمه جذابیت کمتری دارد، شاید به دلیل سطح متفاوت تعامل مورد نیاز برای برخی تراکنشها. در مقابل، هوش مصنوعی ممکن است راه حل بهتری برای پشتیبان/عملیات در بخش بیمه نسبت به بخش بانکی ارائه دهد.
9- بیمه
صندوقها و سایر سازمانها به طور فزایندهای خطرات ناشی از راه حلهای هوش مصنوعی خود را با پوشش بیمهای مناسب مدیریت میکنند. بیمهگران گهگاه هوش مصنوعی را بهعنوان یک افزایشدهنده ریسک میشناسند. علاوه بر ایجاد ریسک، هوش مصنوعی ممکن است نحوه تجزیه و تحلیل ریسکهایی را که بیمهگران و صندوقها قبلاً شناسایی کردهاند، تغییر میدهد.
هوش مصنوعی باید مسئولانه استفاده شود. اگرچه صندوقها و بانکها بهطور فزایندهای راهحلهای هوش مصنوعی را مورد استفاده قرار میدهند، اما باید به دقت به نحوه تأثیرگذاری هوش مصنوعی بر ریسکهای موجود و ایجاد خطرات قانونی بالقوه جدید برای سازمان خود توجه کنند. انتظار میرود روگولاتورها برنامههای هوش مصنوعی را به دقت زیر نظر داشته باشند و همچنان در اجرای اقدامات اجرایی علیه شرکتهایی که از هوش مصنوعی سوء استفاده میکنند، سریع و دقیق عمل کنند. ایجاد یک چارچوب هوش مصنوعی مسئولانه به صندوقها کمک میکند تا با الزامات قانونی و نظارتی مطابقت داشته باشند، در حالی که به ارائه سطوح بالایی از خدمات مشتری به شیوهای مقرونبهصرفه ادامه میدهند.