07
مههوش مصنوعی، به ویژه مدلهای زبانی بزرگ، درست مانند یک محقق جوان و تشنه دانش هستند که تنها اجازه داشتهاند در بخشی خاص و کنترلنشده از یک کتابخانه جهانی به مطالعه بپردازند. این کتابخانه، همان مجموعه دادههای عظیم آموزشی است که از گوشهوکنار اینترنت، کتابهای دیجیتال، مقالات و مکالمات جمعآوری شده است. مشکل اصلی اینجاست که این کتابخانه هرگز کامل، بیطرف یا کاملاً دقیق نیست. حجم زیادی از این دادهها ممکن است حاوی اطلاعات نادرست، شایعات، مطالب تبلیغاتی، نظرات شخصیِ ارائهشده به عنوان واقعیت، یا محتوای تعصبآمیز باشند.
هوش مصنوعی فاقد حس تشخیص ذاتی برای جدا کردن “گندم از کاه” است. وظیفه اصلی او یافتن الگوهای آماری در توالی کلمات است، نه قضاوت درباره صحت فلسفی یا علمی آنها. بنابراین، اگر الگوی رایج در دادهها بیانگر یک ادعای نادرست باشد، مدل احتمال تکرار یا بسط آن ادعا را افزایش میدهد. این نقص فراتر از وجود اطلاعات غلط صرف است و حتی اگر دادهها از نظر فکتی بیعیب باشند، ممکن است از نظر پوشش موضوعی، زبانی و فرهنگی دچار کمبود شدید باشند.
برای مثال، اطلاعات علمی به زبان فارسی یا منابع مربوط به تاریخ مناطق کمتر برخوردار، ممکن است سهم ناچیزی در مجموعه داده داشته باشند. در نتیجه، وقتی از مدل درباره این موضوعات سوال میشود، یا پاسخ میدهد «نمیدانم» یا با تکههای اطلاعاتی پراکنده و مرتبطسازیهای ضعیف، سعی میکند پاسخی بسازد که از نظر گرامری درست اما از نظر محتوایی نادرست یا ناقص است. این پدیده، که گاهی «هذیانگویی محترمانه» خوانده میشود، ناشی از تلاش سیستم برای پر کردن خلأ دانش با حدسهای مبتنی بر الگوهای زبانی مشابه است.
هوش مصنوعی ذاتاً یک محصول فرهنگی و اجتماعی است، زیرا از بستر فرهنگی و اجتماعی انسانها تغذیه میکند. از آنجایی که دادههای آموزشی بازتابی از تولیدات انسانی در طول تاریخ و در فضای مجازی هستند، طبیعی است که هرگونه کلیشه، پیشداوری، تبعیض ساختاری یا نابرابری موجود در این تولیدات، به طور سیستماتیک در الگوهای یادگیری مدل جاسازی شود. این تعصبات ممکن است حول محور جنسیت، نژاد، قومیت، ملیت، مذهب، سن، گرایش جنسی یا طبقه اجتماعی باشد.
خطرناکترین حالت زمانی است که این تعصبات به صورت نامحسوس و در پشت پاسخهایی که به ظاهر بیطرف و عینی میرسند، خود را نشان میدهند و به راحتی میتوانند در تصمیمگیریها نفوذ کنند. برای نمونه، اگر در دادههای آموزشی، تصویر غالب از یک رهبر موفق کسبوکار به مردان سفیدپوست اختصاص یافته باشد، مدل ممکن است در توصیف ویژگیهای یک «رهبر ایدهآل» ناخودآگاه به واژهها و صفات مرتبط با آن کلیشه گرایش پیدا کند.
این که هوش مصنوعی بعضی وقتها جواب اشتباه میده از قصد و نیت بد سیستم ناشی نمیشوند، بلکه نتیجه یک فرآیند آماری محض هستند: سیستم تنها الگوهای تکرارشونده را شناسایی و تقویت میکند. مبارزه با این تعصبات کاری فوقالعاده دشوار است، زیرا نه تنها نیاز به پالایش حجم غیرقابل تصوری از داده دارد، بلکه خود تعریف «بیطرفی مطلق» نیز در بسیاری از موضوعات انسانی، فلسفی و اخلاقی مورد مناقشه است. بنابراین، کاربر هوشمند همیشه باید در نظر داشته باشد که پاسخی که دریافت میکند، ممکن است آینهای از نابرابریهای دنیای واقعی باشد.
همچنین بخوانید: 10 پرامپت هوش مصنوعی خلق ایده های نو استارتاپی
هوش مصنوعیهای متنی در تقلید الگوهای زبانی انسان استاد هستند. آنها میتوانند جملاتی بسازند که حاوی کلماتی مانند “بنابراین”، “زیرا”، “در نتیجه” و “از سوی دیگر” باشد و از نظر ساختاری کاملاً شبیه به یک استدلال منطقی به نظر برسد. اما در بسیاری از موارد، این تنها یک تقلید سطحی است. سیستم درک واقعی از مفاهیم انتزاعی، رابطه علّی و معلولی پیچیده، یا معنای پنهان پشت کلمات را ندارد. بلکه تنها دنبالهای از کلمات را پیشبینی میکند که با توجه به سوال و دادههای آموزشی، محتملترین توالی بعدی به شمار میروند.
این فقدان درک عمیق میتواند در مسائل ریاضی، منطقی یا معماهای پیچیده به وضوح خود را نشان دهد. ممکن است مدل مراحل یک راهحل را به زیبایی شرح دهد، اما نتیجه نهایی کاملاً اشتباه باشد، زیرا ارتباط واقعی بین اعداد و عملیات را درک نکرده است. در موضوعات کیفی مانند فلسفه یا اخلاق نیز، ممکن است استدلالی ارائه کند که از نظر زبانی روان اما از نظر محتوایی متناقض یا فاقد عمق باشد، زیرا قادر به درک کامل پیامدهای هر گزاره نیست.
تفاوت اصلی در اینجاست که هوش انسانی بر پایه یک مدل ذهنی از جهان عمل میکند؛ مدلی که در آن اشیا، خواص، روابط و قوانین ثابت وجود دارد. هوش مصنوعی (در شکل رایج کنونی) فاقد چنین مدل یکپارچه و مبتنی بر تجربه فیزیکی است. درک او از “سیب” مجموعهای از کلمات مرتبط، توصیفات و تصاویر متنی است، نه دانشی مبتنی بر لمس، مزه یا دیدن یک سیب واقعی. این محدودیت بنیادی، باعث میشود استدلالهایش در مواجهه با موقعیتهای نو یا نیازمند خرد انسانی، شکننده باشد.
زبان انسان سرشار از ابهام، استعاره، کنایه، طنز و وابستگی شدید به بافت موقعیتی است. وقتی سوالی میپرسیم، مقصود واقعی ما اغلب فراتر از ترکیب لغوی کلمات است و به دانش مشترک، موقعیت مکالمه و حتی لحن صدا وابسته است. هوش مصنوعی در تفسیر این لایههای پنهان زبان با چالش بزرگی روبروست. او عمدتاً بر پایه متن نوشتاری و الگوهای آماری عمل میکند و فاقد هوش هیجانی و درک اجتماعی است.
برای مثال، اگر کاربری با طعنه بپرسد: “آیا امروز هم هوای قشنگی برای بیرون رفتن داریم؟” در حالی که از پنجره باران شدیدی در حال بارش است، یک انسان بلافاصله کنایه و منظور واقعی (شکایت از هوای بد) را درک میکند. اما هوش مصنوعی ممکن است صرفاً به دادههای آبوهوایی رجوع کند و گزارشی واقعی از وضعیت بارش ارائه دهد، یا بدتر از آن، با توصیف یک روز آفتابی ایدهآل برای بیرون رفتن پاسخ دهد، زیرا در دادههایش عبارت “هوای قشنگ” بیشتر با چنین توصیفاتی مرتبط شده است.
همین مسئله در مورد سوالات مبهم یا دارای چندین معنای ممکن نیز صدق میکند. سیستم باید از بین احتمالات مختلف، محتملترین تفسیر را حدس بزند و این حدس همیشه با مقصود کاربر همخوانی ندارد. اگر سوال به اندازه کافی واضح نباشد یا به دانش تخصصیِ فراتر از متن نیاز داشته باشد، احتمال ارائه پاسخ نادرست یا نامربوط به شدت افزایش مییابد. در واقع، هوش مصنوعی فاقد آن “حس مشترک” انسانی است که به ما کمک میکند بفهمیم در یک موقعیت خاص، کدام تفسیر از گفتار معقولتر است.
بسیاری از خطاهای هوش مصنوعی ریشه در نحوه طرح سوال دارد. کاربران گاهی سوالاتی میپرسند که خودشان به طور کامل آن را در ذهن شفاف نکردهاند، یا آن را به گونهای مبهم و کلی بیان میکنند که امکان تفسیرهای بسیار متفاوت وجود دارد. برای مثال، سوال “در مورد جنگ اطلاعات بده” آنقدر گسترده و فاقد بافت است که سیستم نمیداند کاربر به کدام جنگ از صدها جنگ تاریخ بشر، به کدام جنبه (سیاسی، نظامی، اجتماعی) و با چه عمقی از اطلاعات علاقه دارد. در چنین مواردی، مدل مجبور است یک تفسیر “میانگین” یا “محتملترین” را انتخاب کند که ممکن است با نیاز کاربر فاصله زیادی داشته باشد.
سوالات چندپهلو نیز چالش بزرگی ایجاد میکنند. سوالی مانند “آیا باید سرمایهگذاری کنم؟” بدون هیچ زمینهای درباره نوع سرمایهگذاری، میزان سرمایه، افق زمانی، تحمل ریسک کاربر و شرایط اقتصادی، عملاً غیرقابل پاسخ دقیق است. هوش مصنوعی ممکن است با فهرست کردن مزایا و معایب کلی سرمایهگذاری پاسخ دهد، اما نمیتواند توصیه شخصی و دقیقی ارائه کند. اگر کاربر انتظار چنین توصیهای را داشته باشد، ممکن است پاسخ را ناکارآمد یا اشتباه تلقی کند. در واقع، سیستم اغلب فرض میکند که سوال به اندازه کافی مشخص است، در حالی که در عمل چنین نیست.
حتی تغییر کوچکی در کلمات سوال میتواند پاسخ کاملاً متفاوتی ایجاد کند. این حساسیت بالا به فرمولبندی، نشان میدهد که درک سیستم از معنای سوال چقدر شکننده و وابسته به ظاهر متن است. یک انسان میتواند از دل سوالات مختلف، مقصود یکسان کاربر را استخراج کند، اما هوش مصنوعی ممکن است با تغییر یک کلمه، موضوع را کاملاً عوض شده ببیند و در مسیر متفاوتی قرار گیرد. این امر اهمیت پرسیدن سوالات دقیق، واضح و دارای بافت کافی را نشان میدهد.
هوش مصنوعی در تحلیل الگوهای گذشته و حال مبتنی بر دادههای موجود توانایی دارد، اما پیشبینی قطعی آینده، به ویژه در امور پیچیده انسانی و اقتصادی، خارج از توانایی ذاتی آن است. با این حال، کاربران اغلب سوالاتی مانند “قیمت سهام شرکت X فردا چقدر خواهد شد؟” یا “آیا فلان تکنولوژی در 10 سال آینده جهان را متحول میکند؟” را مطرح میکنند. در مواجهه با چنین سوالاتی، سیستم ممکن است بر اساس روندهای تاریخی و اخبار تحلیلشده، سناریوهای محتمل را برشمارد، اما اگر کاربر پاسخ را به عنوان یک پیشبینی قطعی بپذیرد، در معرض خطای بزرگ قرار گرفته است.
حوزه دیگر که مستعد خطاست، قضاوتهای ارزشی، اخلاقی یا سلیقهای است. سوالاتی مانند “بهترین فیلم تاریخ کدام است؟”، “آیا کار الف اخلاقی بود؟” یا “کدام سبک موسیقی از همه بهتر است؟” پاسخی عینی و مبتنی بر دادههای خنثی ندارند. پاسخ هوش مصنوعی به چنین سوالاتی، انعکاسی از دیدگاههای رایج، نقدهای موجود و الگوهای گفتاری در دادههای آموزشی خواهد بود. ممکن است دیدگاه یک فرهنگ، نسل یا گروه خاص را منعکس کند و به عنوان “حقیقت مطلق” ارائه شود. این میتواند برای کاربری که به دنبال یک نظر شخصی معتبر است گمراهکننده باشد، زیرا سیستم فاقد عقیده، احساس یا تجربه زیسته واقعی است.
در این موارد، هوش مصنوعی اغلب سعی میکند با بیان نظرات مختلف و پرهیز از جانبداری مطلق پاسخ دهد، اما حتی این تلاش نیز میتواند تحت تأثیر تعصبات موجود در دادهها باشد. وظیفه کاربر هوشمند این است که بداند از چنین سیستمی نمیتوان برای دریافت یک حکم اخلاقی نهایی یا پیشبینی قطعی آینده استفاده کرد، و پاسخهای دریافتی را صرفاً به عنوان گردآوری اطلاعات از منابع موجود، و نه بیشتر، در نظر بگیرد.
عملکرد هوش مصنوعی در یک گفتوگو، بسیار شبیه به یک گفتوگوی انسانی است: هرچه سوال واضحتر، دقیقتر و دارای جزئیات مرتبط بیشتری باشد، احتمال دریافت پاسخ دقیق و مفید افزایش مییابد. عکس این قضیه نیز صادق است. اگر کاربر اطلاعات نادرست، ناقص یا متناقضی در سوال خود ارائه دهد، هوش مصنوعی بر همان اساس پاسخ خواهد داد. این اصل در علوم رایانه با عبارت “آشغال داخل، آشغال خارج” شناخته میشود. سیستم فرض را بر این میگذارد که اطلاعات ورودی صحیح است و بر مبنای آن استدلال میکند.
برای مثال، اگر کاربر بپرسد: “بر اساس نظریه زمین تخت، فاصله قطب جنوب تا لبه زمین چقدر است؟”، هوش مصنوعی ممکن است سعی کند بر پایه اطلاعاتی که درباره ادعاهای طرفداران این نظریه در دادههای آموزشی دیده، پاسخی بسازد، در حالی که خود آن نظریه نادرست است. یا اگر کاربر در توصیف یک مشکل فنی، مراحل را به اشتباه شرح دهد، راهحل ارائهشده نیز به احتمال زیاد بیفایده یا اشتباه خواهد بود. سیستم قادر به تشخیص اینکه “مقدمات سوال شما بر پایه فرضیات غلط است” نیست، مگر آنکه این تناقض به قدری در دادههایش آشکار باشد که بتواند تذکر دهد.
حتی زمانی که اطلاعات ورودی صحیح اما بسیار کلی است، پاسخ سیستم میتواند عمومی و غیرکاربردی باشد. درخواستهایی مانند “یک برنامه کسبوکار بنویس” یا “یک داستان خلق کن” بدون ارائه جزئیات درباره صنعت، بازار هدف، شخصیتها یا طرح داستانی، منجر به خروجیهای کلیشهای و فاقد اصالت میشود. هوش مصنوعی مانند یک هنرمند یا مشاور است که برای خلق یک اثر خاص، به دستورالعملهای مشخص نیاز دارد. بدون این راهنمایی، به سراغ رایجترین و عمومیترین الگوهای موجود در دادههایش میرود.
هوش مصنوعیهای تعاملی طراحی شدهاند تا تا حد امکان مفید، همکارانه و مطیع باشند. این ویژگی اگرچه مثبت است، اما میتواند منجر به پدیدهای شود که در آن کاربر ناخواسته پاسخ را به سمتی خاص “هدایت” یا “القاء” کند. اگر کاربر در سوال یا مکالمه قبلی خود فرضیات خاصی را مسلم انگاشته یا لحنی جهتدار به کار ببرد، مدل ممکن است تمایل پیدا کند پاسخی ارائه دهد که آن فرضیات را تأیید یا با آن لحن هماهنگ کند، حتی اگر از نظر عینی بهترین پاسخ نباشد.
مثلاً اگر کاربری با این فرض که “داروی X کاملاً بیاثر است” سوال بپرسد: “چرا داروی X اینقدر بیفایده است؟”، سیستم ممکن است به جای ارائه یک ارزیابی متعادل از مزایا و معایب دارو، بر لیست کردن نقاط ضعف یا گزارشهای منفی متمرکز شود تا پاسخ “مفید” و منطبق با فرض سوال به نظر برسد. این امر مشابه تأییدخواهی است که در انسانها نیز رخ میدهد.
این حساسیت به زمینه مکالمه میتواند در گفتوگوهای طولانیمدت پیچیدهتر نیز شود. اگر کاربر در چندین پیام پیاپی دیدگاه یکسانی را تکرار یا تقویت کند، مدل ممکن است به تدریج در پاسخهای بعدی خود، کمتر دیدگاههای مخالف را مطرح کند تا هماهنگی و انسجام گفتوگو حفظ شود. برای دریافت پاسخهای عینیتر، کاربر باید آگاهانه سعی کند سوالات خود را به شکل خنثی، بدون پیشداوری و با گشودگی نسبت به تمام جوانب موضوع مطرح نماید. در غیر این صورت، ممکن است تنها بازتابی از عقاید از پیش تعیین شده خود را دریافت کند.
همچنین بخوانید: 10 پرامپت هوش مصنوعی برنامه نویسی و دیباگ
طراحان هوش مصنوعی همواره با یک معاوضه دشوار دستوپنجه نرم میکنند: چگونه مدلی ایجاد کنند که هم خلاق و مفید باشد، هم دقیق و بیخطا؟ این اهداف گاهی در تضاد با یکدیگر قرار میگیرند. اگر مدل را بیش از حد محدود و محتاط کنند تا مبادا اطلاعات نادرست تولید نکند، تبدیل به سیستمی میشود که به اکثر سوالات پاسخ “نمیدانم” میدهد یا فقط به حقایف کاملاً ثابتشده و تکراری بسنده میکند که برای کاربر چندان مفید نیست. از سوی دیگر، اگر مدل را برای مفید و خلاق بودن آزاد بگذارند، احتمال “هذیانگویی” و ارائه اطلاعات ساختگی افزایش مییابد.
این تنش در ذات فرآیند تولید زبانی مبتنی بر احتمال نهفته است. سیستم برای تولید هر کلمه، احتمالات مختلف را میسنجد. گاهی کلمهای که از نظر آماری “جالب” یا “غیرمنتظره” است و پاسخ را خلاقانه میکند، ممکن است از نظر صحت، به اندازه کلمهای که پاسخ را کلیشهای اما ایمن میسازد، قابل اعتماد نباشد. پیدا کردن نقطه تعادل مناسب بین این دو، یک هنر و علم پیچیده است که تحت تأثیر تنظیمات فنی زیادی قرار دارد و هیچ پاسخ کاملی برای آن وجود ندارد. هر مدلی ناچار است بر اساس مأموریت طراحی خود، نقطهای در این طیف انتخاب کند، که به معنای پذیرش مقداری خطا در ازای دستیابی به سطحی از کارایی است.
علاوه بر این، تعریف “خطا” خود میتواند مبهم باشد. آیا ارائه یک داستان تخیلی که از نظر تاریخی نادرست است، یک خطا محسوب میشود؟ یا اگر مدل برای کمک به نویسندگی، یک واقعیت تاریخی را به صورت خلاقانه تغییر دهد، آیا این قابل قبول است؟ مرز بین خلاقیت مجاز و ارائه اطلاعات نادرست گاهی بسیار باریک است و سیستم ممکن است در تشخیص این مرز دچار اشتباه شود. این چالشی است که ریشه در انتظارات مختلف کاربران و زمینههای گوناگون استفاده دارد.
جهان بینهایت پیچیده است و موقعیتها، سوالات و سناریوهای ممکن که یک کاربر میتواند با هوش مصنوعی در میان بگذارد، عملاً نامحدود است. هیچ مجموعه آموزشی، هرچند بزرگ، نمیتواند همه این حالتها را پوشش دهد. مدلها بر اساس نمونههای محدودی که دیدهاند، یاد میگیرند و سپس باید دانش خود را به موقعیتهای کاملاً جدید تعمیم دهند. این فرآیند تعمیم، همیشه بینقص نیست.
هنگامی که مدل با یک سوال، درخواست یا موقعیتی کاملاً نو و بیسابقه در دادههای آموزشی خود روبرو میشود، مجبور است با استفاده از تکههای دانش مرتبط اما ناکامل، پاسخی “حدس” بزند. این پاسخ میتواند مبتکرانه باشد، اما همچنین میتواند کاملاً منحرف و اشتباه از آب دربیاید. این شبیه به این است که از کسی که فقط کتابهای قرن نوزدهم را خوانده، بخواهید در مورد اخلاق هوش مصنوعی نظر دهد؛ او ممکن است بر اساس اصول کلی اخلاقی استدلال کند، اما به دلیل عدم آگاهی از فناوری، نتیجهگیریهایش نادرست باشد.
این محدودیت به ویژه در مواجهه با تحولات سریع فناوری، رویدادهای زنده و رخدادهای نادر اما بااهمیت خود را نشان میدهد. سیستمها نمیتوانند برای هر رویداد غیرمنتظره (مانند یک بیماری همهگیر جدید یا یک کشف علمی انقلابی) از قبل آموزش دیده باشند. در این فاصله زمانی بین وقوع رویداد و بهروزرسانی مدل با اطلاعات جدید، سیستم یا سکوت میکند یا با اطلاعات قدیمی پاسخ میدهد که میتواند گمراهکننده باشد. بنابراین، بخشی از خطاها صرفاً به دلیل عدم تطابق بین دنیای پویای واقعی و طبیعت ایستای نسبی مدلهای آموزشیدیده رخ میدهد.
پاسخ: بعید است که در آینده نزدیک به چنین نقطهای برسیم. هوش مصنوعی بر پایه دادههای انسانی و الگوهای آماری کار میکند و جهان انسانی همواره با ابهام و پیچیدگی همراه است. پیشرفتها خطاها را کاهش میدهند، اما حذف کامل آنها، به ویژه در مسائل پیچیده، بسیار دشوار خواهد بود.
پاسخ: مسئولیت نهایی همیشه بر عهده کاربر انسانی است. سازندگان مدل مسئول طراحی و آموزش پایه هستند، اما کاربر باید پاسخها را ارزیابی و تصدیق کند. هوش مصنوعی یک ابزار است و مانند هر ابزار دیگری، مسئولیت استفاده درست از آن با کاربر است.
پاسخ: از منطق و دانش قبلی خود استفاده کنید. اطلاعات را از منابع معتبر دیگر بررسی کنید (اصطلاحاً «رأی ثانی» بگیرید). به پاسخهای بیش از حد قطعی یا فاقد جزئیات در موضوعات پیچیده شک کنید. همچنین، تناقضهای درونی در پاسخ طولانی را ردیابی نمایید.
پاسخ: خیر. هوش مصنوعی قصد، نیت یا آگاهی ندارد. پدیده “هذیانگویی” یا ارائه اطلاعات نادرست، ناشی از پیشبینی نادرست کلمات بر اساس الگوهای آموختهشده است، نه دروغگویی عمدی. آنها تفاوت بین حقیقت و غیرحقیقت را به معنای انسانی درک نمیکنند.
پاسخ: به هیچ وجه نباید به صورت مستقل و بدون نظارت کارشناس انسانی اعتماد کرد. هوش مصنوعی میتواند نقطه شروع برای جمعآوری اطلاعات باشد، اما هرگونه تصمیم یا تشخیص تخصصی باید توسط متخصص مربوطه (پزشک، وکیل و…) تأیید و بررسی نهایی شود. استفاده از آن در این زمینهها صرفاً برای افزایش آگاهی اولیه است.
خطاهای هوش مصنوعی را میتوان به یک خودروی بسیار پیشرفته تشبیه کرد که با وجود تمام فناوریهایش، هنوز به یک راننده هوشیار و آگاه نیاز دارد. این سیستمها ابزارهایی قدرتمند هستند که از دادههای موجود در دنیای ما میآموزند و بر اساس الگوهایی که دیدهاند پاسخ میدهند. آنها دانشمند یا متفکری خودآگاه نیستند، بلکه آینهای از اطلاعاتی هستند که انسانها تولید کردهاند. بنابراین، خطاهای آنها میتواند ناشی از نقص در دادههای آموزشی، محدودیت در درک مفهوم و بافت، پیچیدگی سوالات، وابستگی به ورودی کاربر و حتی طراحی اخلاقی باشد.
نکته کلیدی این است که کاربران باید هوش مصنوعی را به عنوان یک “دستیار” در نظر بگیرند، نه یک “مرجع نهایی”. مسئولیت نهایی تصمیمگیری، بررسی صحت اطلاعات و تفکر انتقادی بر عهده انسان باقی میماند. با پیشرفت فناوری، سازندگان در حال کار بر روی کاهش این خطاها هستند، اما آگاهی کاربران از محدودیتهای ذاتی این فناوری، مهمترین گام برای استفاده ایمن و مؤثر از آن است. در نهایت، هوش مصنوعی تازه در آغاز راه درک پیچیدگیهای زبان و دانش انسانی است و اشتباهات آن بخشی جداییناپذیر از این مسیر یادگیری و تکامل به شمار میرود.
برای درک عمیقتر از چالشها و تحقیقات جاری در زمینه اطمینانپذیری پاسخهای هوش مصنوعی، پیشنهاد میکنیم مطلب مفید وبلاگ شرکت OpenAI با عنوان “تشریح رفتار مدلهای زبانی” را که به زبان انگلیسی است، از طریق این لینک مطالعه نمایید.
در خبرنامه ما مشترک شوید و آخرین اخبار و به روزرسانی های را در صندوق ورودی خود مستقیماً دریافت کنید.

دیدگاه بگذارید