راهنمای کاربردی اصطلاحات هوش مصنوعی

راهنمای کاربردی اصطلاحات هوش مصنوعی

نوشته شده توسط: تیم فنی نیک آموز
تاریخ انتشار: ۰۳ آبان ۱۴۰۳
آخرین بروزرسانی: 03 آبان 1403
زمان مطالعه: 20 دقیقه
۰
(۰)

هوش مصنوعی تا چند سال قبل برای پیروزی در بازی‌های کامپیوتری ستایش می‌شد اما این روزها به یکی از محورهای اصلی تحول دیجیتال تبدیل شده است. این فناوری نوین به ما امکان می‌دهد که سیستم‌های پیچیده و هوشمند ایجاد کنیم و چشم‌انداز بی‌سابقه‌ای از آینده بشری را به روی ما گشوده است. 

با وجود گسترش روزافزون کاربردهای هوش مصنوعی، بسیاری هنوز با اصطلاحات و مفاهیم پایه‌ای این حوزه آشنا نیستند. از الگوریتم‌های یادگیری عمیق گرفته تا شبکه‌های عصبی و پردازش زبان طبیعی، پشت هر یک از این عبارات دنیایی از دانش و فناوری‌های پیشرفته نهفته است. اگر شما هم شیفته هوش مصنوعی شده و در پی آشنایی بیشتر با آن هستید، همراه ما شوید تا مفاهیم پایه‌ای هوش مصنوعی را به زبانی ساده و روشن بشناسیم. 

هوش مصنوعی دقیقا چیست؟

هوش مصنوعی (Artificial Intelligence) که به اختصار AI نامیده می‌شود، به شاخه‌ای از علوم کامپیوتر اشاره دارد که هدفش ساخت سیستم‌های کامپیوتری با شیوه تفکر مشابه انسان است. هوش مصنوعی با برخورداری از هوش مشابه انسان امکان یادگیری، استدلال، حل مساله، درک زبان طبیعی و تشخیص الگوها را برای انجام وظایف در حوزه پزشکی، اقتصاد، حمل و نقل، تجارت، فناوری اطلاعات و غیره پیدا می‌‌کند.

هوش مصنوعی این روزها به عنوان یک فناوری یا حتی یک موجودیت شناخته می‌شود که تعریف دقیق و جامع آن را مشکل می‌کند. علاوه بر این استفاده تبلیغاتی شرکت‌ها از این عبارت دامنه آن را بسیار متغیر کرده است. برای مثال منظور گوگل از سرمایه‌گذاری در AI ارتقای محصولاتی مثل جی‌میل و موتور جستجو با ابزارهای هوش مصنوعی است. از سوی دیگر مارک زاکربرگ، مدیرعامل متا از کلمه AI برای چت‌بات‌ها استفاده می‌کند و برخی دیگر از آن برای اشاره به مدل‌‌های زبانی مثل جمینای و ChatGPT استفاده می‌کنند. 

اصطلاحات پایه‌ای هوش مصنوعی

متخصصان حوزه کامپیوتر هوش مصنوعی را نقطه عطف جدید در دنیای فناوری معرفی می‌کنند اما مفاهیم مرتبط با آن کمی پیچیده و گیج‌کننده به نظر می‌رسد. احتمالا در مقالات یا ویدیوهای مربوط به هوش مصنوعی با تعداد زیادی از این عبارات روبرو خواهید شد. برای اینکه این اصطلاحات بهتر درک کنید، نیک آموز فهرستی از مفاهیم اصلی و کلیدی در هوش مصنوعی را آماده کرده که شناخت خوبی از هوش مصنوعی به شما می‌دهد.

یادگیری ماشین (Machine Learning)

شاخه‌ای مهم از هوش مصنوعی است که به سیستم‌ امکان می‌دهد بدون نیاز به برنامه‌نویسی صریح، از داده‌ها یاد گرفته و عملکرد خود را بهبود ببخشد. به عبارت دیگر به جای اینکه به کامپیوتر بگوییم چه کاری انجام دهد، به آن داده می‌دهیم و سیستم به مرور یاد می‌گیرد که چگونه از آن داده‌ها برای تصمیم‌گیری استفاده کند. این کار با استفاده از الگوریتم‌های پیچیده انجام می‌شود که به کامپیوتر اجازه می‌دهند تا الگوها و روابط پنهان در داده‌ها را شناسایی کند. برای مثال اینستاگرام از یادگیری ماشین استفاده می‌کند تا بر اساس تاریخچه لایک‌ها ویدیوهای مرتبط را به شما پیشنهاد دهند.

یادگیری عمیق (Deep Learning)

از زیرشاخه‌های یادگیری ماشین است که بر پایه شبکه‌های عصبی با لایه‌های متعدد مثل کانولوشن (CNN) یا شبکه‌های عصبی بازگشتی (RNN) ساخته می‌شود. یادگیری عمیق به ماشین‌ها کمک می‌کند تا جهان را شبیه انسان درک کرده و مسائل پیچیده مانند تشخیص تصویر، پردازش زبان طبیعی و تولید محتوا را با دقت بالا حل کننند.

هوش مصنوعی عمومی (AGI)

این مدل می‌تواند مثل انسان فکر کند، یاد بگیرد و به طیف وسیعی از وظایف و مسائل مختلف بپردازد. OpenAI سرمایه‌گذاری گسترده‌ای در زمینه AGI انجام داده و هدف از آن توسعه ماشینی است که با توانایی‌های شناختی مشابه انسان، مسائل جدید را بدون نیاز به برنامه‌ریزی دقیق و مشخص حل کند. این نوع هوش مصنوعی می‌تواند انقلابی در بسیاری از زمینه‌ها ایجاد کند و پتانسیل این را دارد که به یکی از بزرگترین دستاوردهای علمی و تکنولوژیکی بشر تبدیل شود. در عین حال AGI برای بسیاری ترسناک‌ترین جنبه از هوش مصنوعی است؛ کافی است به فیلم‌هایی فکر کنید که در آن‌ها ماشین‌های فوق هوشمند کنترل دنیا را به دست می‌گیرند!

 

هوش مصنوعی مولد‌ (Generative AI)

مدلی است که توانایی تولید متن، تصویر، کد و مواردی از این دست را دارد. برخلاف روش‌های سنتی که تنها قادر به تحلیل و پردازش داده‌های موجود هستند، هوش مصنوعی مولد داده‌های جدیدی تولید می‌کند که به طرز شگفت‌آوری واقعی و خلاقانه است. قوی‌ترین نمونه‌های آن هوش مصنوعی جمینای گوگل و ChatGPT است که به صورت آنی به همه سوالات ما پاسخ می‌دهند. این ابزارها از مدل‌هایی قدرت می‌‌گیرند که با حجم انبوهی از داده آموزش دیده‌اند. 

توهم (Hallucinations)

به پدیده‌ای اشاره دارد که در آن مدل‌ هوش مصنوعی اطلاعات نادرست، بی‌اساس یا بی‌ربط تولید می‌کند. این اتفاق زمانی رخ می‌دهد که مدل در داده‌های آموزشی اطلاعات دقیقی برای سوال مطرح شده ندارد، یا به‌طور نادرست الگوهای داده‌ها را تفسیر می‌کند. این توهمات می‌توانند از پاسخ‌های جزئی نادرست تا اطلاعات کاملاً ساختگی متغیر باشد و چالش بسیار مهمی است چون منجر به انتشار اطلاعات نادرست و کاهش اعتماد کاربران به سیستم‌های هوش مصنوعی شود. برای رفع این مشکل پژوهشگران در حال توسعه تکنیک‌هایی هستند که دقت مدل‌ها را افزایش داده و توانایی آن‌ها در تشخیص و اصلاح اشتباهات را بهبود می‌بخشد.

سوگیری (Bias)

ابزارهای هوش مصنوعی گاهی به‌دلیل داده‌های نامتوازن یا طراحی نادرست، نتایج غیرمنصفانه‌ یا تبعیض‌آمیز تولید می‌کنند. به عنوان مثال اگر یک مدل تشخیص چهره برای شناسایی افراد مظنون به ارتکاب جرم با داده‌هایی آموزش داده شود که عمدتا شامل تصاویر افراد با رنگ پوست خاصی است، احتمالا مدل افراد با رنگ پوست خاص را بیشتر به عنوان مجرم شناسایی می‌کند. 

سوگیری در هوش مصنوعی می‌تواند تاثیرات منفی جدی در تصمیم‌گیری‌ها و کاربردهای مختلف از جمله استخدام، اعطای وام و امور سلامت و قضایی داشته باشد. بنابراین شناسایی و کاهش سوگیری در سیستم‌های هوش مصنوعی از اهمیت بالایی برخوردار است تا اطمینان حاصل شود که فناوری به طور منصفانه و دقیق عمل می‌کند.

بینایی ماشین (Computer Vision)

شاخه‌ای از هوش مصنوعی است که به کامپیوترها توانایی درک و تحلیل تصاویر و ویدیوهای آفلاین یا زنده را می‌دهد. بینایی ماشین به کمک یادگیری عمیق و شبکه‌های عصبی پیشرفته به کامپیوترها یاد می‌دهد که دنیای واقعی را مشاهده کرده و اطلاعات مفید را از تصاویر استخراج کنند. این فناوری برای تشخیص اشیا در تصاویر، ردیابی حرکت، تشخیص چهره‌ و توضیح تصاویر به صورت متنی استفاده می‌شود. بینایی ماشین در بسیاری از کاربردهای روزمره از جمله ماشین‌های خودران، سیستم‌های نظارتی، تشخیص پزشکی و واقعیت افزوده نقش مهمی ایفا می‌کند.

اصطلاحات مربوط به مدل‌های هوش مصنوعی

مدل‌ها از پایه‌ای ترین مفاهیم در دنیای هوش مصنوعی هستند که امکان توسعه سیستم‌های قدرتمند را فراهم می‌سازند. در ادامه با اصلاحات مرتبط با آنها آشنا می‌شویم. 

مدل هوش مصنوعی (AI model)

مدل هوش مصنوعی ساختاری ریاضیاتی و آماری است که برای انجام وظایف خاصی از جمله پیش‌بینی، طبقه‌بندی و شناسایی الگوها طراحی شده است. مدل‌ها با استفاده از الگوریتم‌های یادگیری ماشین و داده‌های آموزشی، به‌گونه‌ای تنظیم می‌شوند که به ورودی‌های جدید پاسخ مناسب دهند. برای مثال مدل تشخیص چهره با تحلیل تصاویر و شناسایی ویژگی‌های مهم مانند شکل چشم‌ها و بینی قادر به تشخیص افراد است.

مدل زبانی بزرگ (LLM)

گونه‌ای مدل هوش مصنوعی با توانایی پردازش و تولید متون در قالب لحن انسانی است. جمینای گوگل پرکاربردترین نمونه از مدل زبانی بزرگ است که در پاسخ به درخواست کاربر امکان تولید انواع متن و جدول دارد. قبلا در نیک آموز به شکل کامل توضیح دادیم که مدل زبانی بزرگ چیست و چطور توسعه می‌یابد. 

مدل دیفیوژن (Diffusion model)

نوعی مدل مولد است که برای تولید تصویر و ویدیو از روی پرامپت متنی به کار می‌رود و به دلیل توانایی بالا در ایجاد محتوای خلاقانه و دقیق، توجه زیادی را به خود جلب کرده‌ است. این مدل‌ با فرآیندی به نام دیفیوژن (انتشار)، داده‌های ورودی را به تدریج به نویز تبدیل کرده و سپس با معکوس کردن فرآیند، داده‌های جدید و با کیفیت بالا تولید می‌کنند. دیفیوژن به مدل اجازه می‌دهد تا اطلاعات پیچیده و جزئیات دقیق را حفظ کرده و نتایج واقع‌گرایانه ایجاد کند. 

مدل بنیادی (Foundation model)

این مدل‌های مولد روی مجموعه عظیمی از داده‌ها آموزش دیده و می‌توان از آنها برای دامنه گسترده‌ای از کاربردها بهره برد. جمینای، ChatGPT و Llama نمونه‌هایی از مدل بنیادی هستند. بسیاری از شرکت‌ها مدل‌های خود را به‌عنوان چند وظیفه‌ای هم معرفی می‌‌کنند، بدین معنی که امکان پردازش قالب‌های داده مختلف مثل تصویر، متن و ویدیو را دارند. توسعه این مدل‌ها به منابع محاسباتی بزرگ و داده‌های آموزشی وسیع نیاز داشته و در حوزه‌هایی مانند پردازش زبان طبیعی، تشخیص تصویر و محاسبات پیچیده به کار می‌روند.

مدل پیشرو (Frontier model)

این عبارت بسیار شیک و پسامدرن به‌نظر می‌رسد اما تنها اصطلاحی تجاری برای مدل‌های هوش مصنوعی منتشر نشده است. روی کاغذ مدل‌‌های پیشرو باید بسیار قوی‌تر از نمونه‌های فعلی باشند اما نگرانی‌هایی در مورد ریسک‌های آنها نیز وجود دارد. هدف از توسعه مدل‌های پیشرو، دستیابی به سطح بالاتری از هوش و قابلیت‌های پردازشی است که می‌تواند کاربردهای گسترده‌ای در صنایع مختلف داشته باشد.

اصطلاحات مربوط به آموزش مدل‌ها

آموزش مدل (Model Training)

آموزش فرایندی است که طی آن مدل با تحلیل مجموعه‌‌های داده روش درک داده‌ها را فرا گرفته و توان تشخیص الگوها و پیش‌بینی را پیدا می‌کند. در این فرآیند، مدل با دریافت ورودی‌های متنوع و مقایسه خروجی‌های تولید شده با نتایج مورد انتظار، به تدریج تنظیم می‌شود. برای مثال مدل‌های زبانی بزرگ مثل جمینای با خواندن مجموعه داده‌های عظیم آموزش می‌بینید و زمانی که شما از آنها سوالی می‌پرسید، به لطف تجربه قبلی می‌دانند که درباره چه چیزی صحبت می‌کنید و پاسخ مناسب را به شما ارائه می‌کنند. 

آموزش شاید در نگاه اول ساده به‌نظر برسد اما به منابع گسترده و توان محاسباتی بالا نیاز دارد که توسط پردازشگرهای گرافیکی قدرتمند و گران‌قیمت تامین می‌شود. مدل‌های هوش مصنوعی را می‌توان با قالب‌های داده مختلف به ویژه متن، تصویر و ویدیو آموزش داد. 

پارامتر (Parameter)

پارامترها متغیرهای عددی در مدل هستند که نحوه تبدیل ورودی (مثلا پرامپت) به خروجی را مشخص می‌کنند. پارامترها در فرآیند آموزش به‌صورت گام‌به‌گام بهینه می‌شوند تا مدل بهترین عملکرد را در پیش‌بینی‌ها و تصمیم‌گیری‌ها ارائه دهد. پارامترهای بهینه‌سازی‌شده به مدل اجازه می‌دهند تا الگوها و روابط پیچیده را در داده‌ها شناسایی کرده و پاسخ‌های دقیقی به ورودی جدید ارائه دهد. 

شرکت‌ها اغلب برای نمایش توانایی و سطح پیچیدگی مدل‌های خود روی تعداد بالای پارامترهای آن تاکید می‌کنند. برای مقایسه هوش مصنوعی ایرانی درنا ۸ میلیارد پارامتر و مدل زبانی Llama 3.1 متا ۴۰۵ میلیارد پارامتر دارد. 

برچسب‌ زنی داده (Data labeling)

در هوش مصنوعی به داده‌های خام برچسب‌ یا اطلاعات توصیفی اضافه می‌شود تا مدل‌ با یادگیری از آن‌ها پیش‌بینی‌های دقیق‌تری انجام دهد. این برچسب‌ها شامل دسته‌بندی، ویژگی یا توضیحات دیگری است که به مدل کمک می‌کنند تا الگوها و روابط موجود در داده‌ها را شناسایی کند. برای مثال در زمینه تشخیص تصویر برچسب‌ها ممکن است شامل نام اشیا موجود در تصاویر باشند. برچسب‌زنی داده معمولا به صورت دستی توسط کارشناسان انجام می‌شود و کیفیت آن تاثیر زیادی بر دقت و عملکرد نهایی مدل هوش مصنوعی دارد.

یادگیری بدون نظارت (Unsupervised Learning)

شاخه‌ای از یادگیری ماشین است که در آن داده‌ها برچسب‌گذاری نشده و به الگوریتم هیچ اطلاعات پیش‌فرضی درباره دسته‌بندی داده‌ها داده نمی‌شود. در این حالت الگوریتم به‌صورت خودکار الگوها، ساختارها و ارتباطات پنهان در داده‌ها را جستجو کرده و آنها را بر اساس شباهت‌هایشان به گروه‌های مختلف تقسیم می‌کند. به‌عنوان مثال خوشه‌بندی مشتریان دیجی‌کالا بر اساس رفتار خرید از کاربردهای یادگیری بدون نظارت است.

نرخ یادگیری (Learning rate)

یک پارامتر بسیار مهم در الگوریتم‌های یادگیری ماشین است که سرعت یادگیری مدل را کنترل می‌کند. اگر نرخ یادگیری خیلی کم باشد، مدل بسیار کند یاد می‌گیرد و ممکن است در بهینه‌سازی گیر کند. از طرف دیگر، اگر نرخ یادگیری خیلی بالا باشد، مدل با عجله به‌سمت جواب‌های نزدیک به بهینه حرکت کرده و هرگز به بهترین جواب نمی‌رسد. تنظیم صحیح نرخ یادگیری بسیار مهم و نیازمند آزمایش و تجربه است تا به بهترین نتایج در فرآیند آموزش مدل دست یافت.

ایپاک (Epoch)

در حوزه یادگیری عمیق به یک دور کامل آموزش مدل روی مجموعه داده آموزشی Epoch گفته می‌شود. تصور کنید که می‌خواهید به یک کودک الفبای فارسی آموزش دهید. هر بار که تمام حروف الفبا را به او نشان داده و می‌خواهید آن‌ها را تکرار کند، یک Epoch محسوب می‌شود. در یادگیری ماشین نیز مدل با تکرار این فرآیند و مشاهده تمام داده‌های آموزشی، به‌تدریج پارامترهای خود را تنظیم می‌کند تا بتواند الگوهای موجود در داده‌ها را بهتر شناسایی کند. تعداد ایپاک‌ها یکی از مهم‌ترین پارامترها در آموزش مدل‌های یادگیری عمیق است و انتخاب مناسب آن به عوامل مختلفی مانند اندازه داده‌ها، پیچیدگی مدل و توان محاسباتی بستگی دارد.

وزن (Weight)

وزن در شبکه‌های عصبی به‌عنوان یک پارامتر قابل تنظیم برای تعیین سطح ارتباط بین نورون‌ها عمل می‌کند. اگر هر نورون را در شبکه عصبی یک گره فرض کنیم، ارتباط بین این گره‌ها توسط خطوط نشان داده می‌شود. وزن اختصاص داده‌شده به این خطوط نشان می‌دهد که چقدر سیگنال از یک نورون به نورون دیگر منتقل شود. به عبارت دیگر وزن‌ اهمیت هر ورودی را در تعیین خروجی مدل مشخص می‌کنند. وزن بزرگتر نشان می‌دهند که ورودی مربوطه تاثیر بیشتری بر روی خروجی دارد.

دیگر اصطلاحات هوش مصنوعی

پردازش زبان طبیعی (NLP)

آنچه که به هوش مصنوعی توان درک زبان انسان را می‌دهد، پردازش زبان طبیعی است که از طریق یادگیری ماشین ممکن می‌شود. مدل ChatGPT با همین روش قادر به تحلیل متن، ترجمه ماشینی، تشخیص گفتار، تولید زبان طبیعی و پاسخ به سوالات است. یکی دیگر از ابزارهای قدرتمند OpenAI بر‌پایه NLP فناوری Whisper است که در ویدیوها صدا را به‌صورت خودکار زیرنویس یا به فایل متنی تبدیل می‌‌کند. 

چت‌بات (Chatbot)

برنامه‌ای است که با استفاده از هوش مصنوعی مکالمات متنی یا صوتی شبیه به انسان با کاربران برقرار می‌کند. چت‌بات‌ها با پردازش زبان طبیعی (NLP) آموزش داده می‌شوند تا سوالات کاربران را درک کرده و به آن‌ها پاسخ دهند. چت‌بات‌ها در سایت‌های خارجی و ایرانی در زمینه‌های زیادی مثل پشتیبانی مشتریان، آموزش، سرگرمی و تجارت الکترونیک مورد استفاده قرار می‌گیرند. بات‌ها به‌طور خودکار به سوالات متداول پاسخ می‌دهند، سفارشات را ثبت کرده و به‌عنوان یک راهنمای مجازی عمل می‌کنند. از جمله چت‌بات‌های ایرانی می‌توان به زیگپ اشاره کرد که در ارائه ایده و پاسخ به سوالات به شما کمک می‌کند.

استنتاج (Inference)

به فرآیندی اشاره دارد که در آن مدل از داده‌های جدید استفاده می‌کند تا پیش‌بینی‌ها یا پاسخ‌هایی ارائه دهد. این فرآیند پس از آموزش مدل صورت می‌گیرد و شامل اعمال مدل به ورودی‌های جدید برای تولید خروجی‌های مرتبط است. به‌عنوان مثال در یک مدل تشخیص تصویر، استنتاج به‌معنی تشخیص اشیا در تصاویر جدیدی است که قبلاً مدل آن‌ها را ندیده است. استنتاج در زمینه‌های مختلفی مانند ترجمه زبان، تشخیص گفتار، تحلیل داده‌های پزشکی و امور مالی به‌کار می‌رود و کلید اصلی بهره‌برداری از مدل‌های هوش مصنوعی است. 

توکن (Token)

توکن به حجم خاصی از متن اشاره دارد؛ برای مثال تعداد کلمات، بخش‌هایی از کلمات یا حتی حروف مجزا. مدل‌های زبانی برای تحلیل متن آن را به چند توکن خرد کرده و پس از شناسایی ارتباط بین آن‌ها پاسخ را تولید می‌کنند. تعداد توکن‌هایی که مدل یکباره قادر به پردازش آنهاست «پنجره محتوا» نام دارد و هرچه بیشتر باشد، می‌توان نتایج بهتر و پیچیده‌تری تولید کرد. برای مثال پنجره محتوای جمینای ۳۲ هزار توکن است تا کاربر امکان طرح مسائل طولانی‌تر و پیچیده‌تر با چت بات را داشته باشد.

شبکه عصبی (Neural network)

شبکه عصبی در هوش مصنوعی معماری محاسباتی است که از ساختار و عملکرد مغز انسان الهام گرفته شده است. این شبکه از لایه‌های متعددی از گره‌‌ها (نورون‌ها) تشکیل شده که به‌صورت موازی کار می‌کنند. هر نود در یک لایه به نودهای لایه بعدی متصل است و این اتصالات با وزن‌های قابل تنظیم مشخص می‌شوند. شبکه‌های عصبی برای یادگیری الگوها و روابط پیچیده در تشخیص تصویر، پردازش زبان طبیعی، ترجمه ماشینی و پیش‌بینی‌های مالی مورد استفاده قرار می‌گیرند و به‌دلیل توانایی بالا در مدل‌سازی روابط غیرخطی و پیچیده، بسیار محبوب هستند.

ترانسفورمر (Transformer)

یک مدل معماری در هوش مصنوعی است که از مکانیزم توجه (Attention) برای پردازش داده‌ها استفاده می‌کند. این سازوکار به مدل اجازه می‌دهد تا به صورت همزمان تمام قسمت‌های ورودی را در نظر گرفته و ارتباط بین آنها را بهتر درک کند. 

برای درک بهتر این مفهوم تصور کنید کاربر از هوش مصنوعی می‌پرسد آسمان چه رنگی است؟ مدل ترانسفورمر از یک نمایش برداری برای شناسایی ارتباط بین کلمات رنگ، آسمان و آبی استفاده کرده و خروجی را تولید می‌کند: آسمان آبی است. 

این ویژگی باعث می‌شود که ترانسفورمرها در مقایسه با مدل‌های قدیمی‌تر مانند RNN و LSTM کارایی و دقت بیشتری در پردازش متن‌های طولانی و پیچیده داشته باشند. ترانسفورمرها به‌طور گسترده در مدل‌های پیشرفته‌ای مانند جمینای، GPT و T5 استفاده شده و در ترجمه ماشینی، تولید متن، خلاصه‌سازی و سایر وظایف پردازش زبان طبیعی کاربرد گسترده‌ای دارند. 

RAG

RAG مخفف Retrieval-Augmented Generation بوده و به روشی در هوش مصنوعی اشاره دارد که در آن مدل‌های زبانی بزرگ (LLM) از یک پایگاه دانش خارجی برای تولید پاسخ‌های دقیق‌تر استفاده می‌کنند. به عبارت ساده‌تر RAG به مدل‌های زبانی این امکان را می‌دهد که اطلاعات مرتبط را از یک پایگاه داده بازیابی کرده و از آن برای تولید پاسخ‌های بهتر استفاده کنند. این روش برای سوالاتی که نیاز به اطلاعات خاص و به‌روز دارند مفید است و از وقوع توهم یا ارائه پاسخ ساختگی جلوگیری می‌کند. 

 به عنوان مثال اگر از یک مدل زبانی با قابلیت RAG بپرسید که «ایران در المپیک پاریس چند مدال گرفته؟»، جواب آن در دوره آموزش موجود نیست و مدل باید با مراجعه به یک پایگاه دانش خارجی مثل سایت المپیک یا خبرگزاری‌های معتبر پاسخ دقیق و به‌روز را ارائه دهد.

اصطلاحات مربوط به سخت افزار هوش مصنوعی

چیپ H100 انویدیا

تراشه H100 انویدیا محبوب‌ترین واحد پردازش گرافیکی (GPU) است که برای آموزش مدل‌های هوش مصنوعی استفاده می‌شود. این چیپ به‌صورت تخصصی برای آموزش و اجرای هوش مصنوعی بهینه شده و اغلب سازندگان مدل‌های AI از جمله متا از آن بهره می‌برند. تقاضای فوق‌العاده برای تراشه H100 انویدیا را به یکی از با ارزش‌ترین برندهای جهان تبدیل کرده اما شرکت‌های دیگر هم سرگرم توسعه چیپ‌های هوش مصنوعی خود هستند که تسلط انویدیا بر بازار را کاهش می‌دهد.

واحد پردازش عصبی (NPU)

NPU پردازنده‌ اختصاصی در کامپیوتر، تبلت و گوشی‌های هوشمند است که توان انجام محاسبات هوش مصنوعی را به دستگاه می‌دهد. برخلاف پردازنده‌ مرکزی (CPU) و پردازنده‌ گرافیکی (GPU) که برای کارهای عمومی طراحی شده‌اند، NPU به صورت ویژه برای تسریع محاسبات هوش مصنوعی مانند یادگیری عمیق، بینایی ماشین و پردازش زبان طبیعی بهینه‌سازی شده‌ است. NPU که اپل آن را موتور عصبی می‌نامد، در اجرای بسیاری از وظایف مبتنی بر AI مثل حذف صدای زمینه هنگام تماس کارایی عالی دارد.

ترافلاپس (TOPS)

TOPS واحدی برای سنجش سرعت پردازش سیستم‌های کامپیوتری، به ویژه در حوزه هوش مصنوعی است و نشان می‌دهد که یک کامپیوتر در هر ثانیه چند تریلیون عملیات ممیز شناور انجام می‌دهد. در شبکه‌های عصبی عمیق، انجام میلیاردها عملیات محاسباتی برای یادگیری الگوها و پیش‌بینی‌ها ضروری است و به همین خاطر سیستم‌های با TOPS بالا مدل‌های پیچیده و بزرگ را در زمان کوتاه‌تری آموزش می‌دهند. 

پرکاربرد ترین مدل‌ های هوش مصنوعی

در ادامه به معرفی مدل‌های پرکاربرد هوش مصنوعی می‌پردازیم که در زمینه‌های مختلف از جمله پردازش زبان طبیعی، تشخیص تصویر و تحلیل داده‌ مورد توجه هستند.

OpenAI ChatGPT

همه سروصدایی که این روزها در زمینه هوش مصنوعی برپا شده، مدیون ChatGPT است؛ چت باتی که شرکت OpenAI در اواخر سال ۲۰۲۲ منتشر کرد. محبوبیت خیره‌کننده این سرویس باعث شد غول‌های فناوری مثل گوگل و متا هم وارد بازی شوند و این روزها شاهد شکل‌گیری رقابت داغی بین آن‌ها هستیم. 

 مایکروسافت Copilot

دستیار هوشمند Copilot بر پایه GPT شرکت OpenAI توسعه یافته و با اکثر محصولات مایکروسافت یکپارچه شده است. یکی از دلایل این همکاری، مالکیت ۴۹ درصد OpenA توسط مایکروسافت است. 

گوگل Gemini

گوگل با چت‌بات جمینای وارد میدان رقابت شده که مدل‌‌های مختلفی دارد اما نسخه پایه آن رایگان است. جمینای با دستیار هوش مصنوعی گوگل هم یکپارچه شده و کاربردهای بسیار متنوع و سرگرم‌کننده‌ای دارد. 

متا Llama

همین چند روز پیش در نیک آموز از انتشار نسخه جدید متا Llama به‌عنوان بزرگترین مدل هوش مصنوعی متن باز جهان سخن گفتیم. این مدل زبانی بزرگ بسیار قدرتمند است و بسیاری را نسبت به آینده مدل‌های متن باز AI خوش‌بین کرده است.

اپل Intelligence

اپل قابلیت‌های مبتنی بر هوش مصنوعی را تحت برند Intelligence به محصولاتش اضافه می‌کند. یکی از این قابلیت‌ها در دسترس قرار گرفتن ChatGPT از طریق دستیار سیری است!

Anthropic Claude

این شرکت توسط یکی از کارکنان سابق OpenAI بنا شده و توانسته سرمایه‌ ۴ میلیارد دلاری از آمازون و چند صد میلیون دلاری از گوگل دریافت کند. به تازگی «مایک کریگر» از موسسان اینستاگرام به عنوان مدیر محصول به Anthropic پیوسته است. 

xAI Grok

xAI کمپانی هوش مصنوعی ایلان ماسک است که یک مدل زبانی بزرگ به نام Grok را توسعه داده و سرمایه‌گذاران ۶ میلیارد دلار به آن تزریق کرده‌اند. 

Perplexity

این شرکت به‌واسطه توسعه موتور جستجوی هوش مصنوعی شناخته شده اما این اواخر به کپی‌برداری اطلاعات متهم شده بود. 

Hugging Face

پلتفرمی است که به عنوان دایرکتوری برای مجموعه‌‌های داده و مدل‌های AI کار می‌کند. 

جمع‌بندی

در این مطلب از مجله نیک آموز به توضیح مفاهیم پایه و اصطلاحات کلیدی در حوزه هوش مصنوعی از جمله یادگیری ماشین، یادگیری عمیق، شبکه‌های عصبی، بینایی ماشین، سوگیری و غیره پرداختیم که برای آشنایی مقدماتی با این حوزه مفید است. هوش مصنوعی (AI) شاخه‌ای از علوم کامپیوتر با هدف ایجاد سیستم‌هایی است که مشابه انسان فکر کنند، یاد بگیرند و مسائل مختلف را حل کنند. یادگیری عمیق یکی از زیرشاخه‌های یادگیری ماشین است که بر اساس شبکه‌های عصبی چندلایه عمل می‌کند. در نهایت مدل‌های محبوب و پرکاربرد هوش مصنوعی مولد مانند ChatGPT و جمینای گوگل را معرفی کردیم که توانایی تولید محتوا مانند متن، تصویر، صدا و کد را  دارند.

چه رتبه ای می‌دهید؟

میانگین ۰ / ۵. از مجموع ۰

اولین نفر باش

گوش به زنگ یلدا
title sign
معرفی نویسنده
تیم فنی نیک آموز
مقالات
401 مقاله توسط این نویسنده
محصولات
0 دوره توسط این نویسنده
تیم فنی نیک آموز
title sign
دیدگاه کاربران

close-image