چگونه متخصصان بیمه با هوش مصنوعی به مشکل بر می خورند

ما در مورد شگفتی ‌هایی که هوش مصنوعی ممکن است با خود به همراه داشته باشد شنیده ‌ایم، اما تازه در حال درک مشکلات استفاده از آن هستیم. در حالی که بسیاری از متخصصان بیمه آزمایش هوش مصنوعی را در این صنعت آغاز کرده اند، مشکلاتی وجود دارد که باید مراقب آن ها بود.

به گزارش ریسک نیوز، این ابزار می ‌تواند پاسخ‌ های فوری بدهد، اما همان مشکل «پاسخ های ناصحیح» است که اینترنت را با مشکل مواجه کرده است. بلافاصله پس از اینکه عموم مردم شروع به آزمایش ChatGPT و نسخه مایکروسافت آن کردند، همه ما متوجه شدیم که هوش مصنوعی می ‌تواند اشتباه و گاهی اوقات کاملاً احمقانه باشد.

سم آلتمن، مدیر اجرایی OpenAI خالق ChatGPT از کنگره خواست تا استانداردهای مجوز و ایمنی برای سیستم های هوش مصنوعی ایجاد کند. ما درک می کنیم که مردم نگران این هستند که هوش مصنوعی چگونه می تواند شیوه زندگی ما را تغییر دهد. آلتمن در جلسه استماع کمیته عمومی سنا گفت: «اگر این فناوری اشتباه پیش برود، ممکن است به مسیری اشتباه برود.»

او توصیه کرد که یک آژانس جدید ایجاد شود «که مجوز هر کاری را که بالاتر از یک مقیاس مشخص از قابلیت ها باشد، صادر می کند و می تواند آن مجوز را از بین ببرد و از انطباق با استانداردهای ایمنی اطمینان حاصل کند.»

هوش مصنوعی همیشه قابل اعتماد نیست

در یک مورد خبرنگار نیویورک تایمز با باتی مبتنی بر ChatGPT به نام سیدنی وارد رابطه ای عاطفی شد و همسر خود را ترک کرد.

مونیکا مینکل وقتی از ChatGPT خواست که یک پست وبلاگی درباره ریسک های استفاده از ChatGPT بنویسد متوجه این موضوع شد.

مینکل گفت: «از ChatGPT خواستم که یک پست وبلاگ بنویسد و به دو منبع استناد کند که این کار را کرد. این پست وبلاگ بسیار خوب بود اما هر دو منبع غیر قابل اعتماد بودند.»

مینکل لینک های URL به منابع را دنبال کرد اما آن ها صفحاتی زنده نبودند و او نتوانست اطلاعات را تأیید کند. مینکل، که معاون و رهبر شرکت ریسک اجرایی کارگزاری هلمز مورفی است، گفت که مشکل فقط نادرست بودن اطلاعات نیست، بلکه این است که کاربر مسئول انتشار این اطلاعات نادرست هستند.

مینکل گفت: «شما باید در مورد انتساب بسیار محتاط باشید،» و افزود که مسائل بزرگتر از دقت کردن هستند. «ممکن است محتوایی کپی یا کپی شده باشد که دارای حق نسخه برداری، دارای علامت تجاری یا تحت مالکیت دیگری باشد. ممکن است متوجه نشوید که در حال سرقت اطلاعاتی هستید و متوجه سرقت علمی خود نشوید. و ممکن است متوجه شوید که اطلاعاتی را منتشر می کنید که یا نادرست، اشتباه یا به ‌طور بالقوه به ‌شدت مغرضانه هستند.»

مقاله ای در هاروارد بیزینس ریویو با عنوان «هوش مصنوعی مولد دارای مشکل مالکیت فکری» این موضوع را بررسی کرد.

مترجم: مسعود اسکندری

منبع

https://insurancenewsnet.com/innarticle/how-insurance-professionals-can-get-into-trouble-with-ai

لینک کوتاهلینک کپی شد!
اخبار مرتبط
ارسال نظر

  ×  8  =  48