خانه هوش مصنوعی راهنمای کاربردی اصطلاحات هوش مصنوعی هوش مصنوعی علم داده نوشته شده توسط: تیم فنی نیک آموز تاریخ انتشار: ۰۳ آبان ۱۴۰۳ آخرین بروزرسانی: 03 آبان 1403 زمان مطالعه: 20 دقیقه ۰ (۰) هوش مصنوعی تا چند سال قبل برای پیروزی در بازیهای کامپیوتری ستایش میشد اما این روزها به یکی از محورهای اصلی تحول دیجیتال تبدیل شده است. این فناوری نوین به ما امکان میدهد که سیستمهای پیچیده و هوشمند ایجاد کنیم و چشمانداز بیسابقهای از آینده بشری را به روی ما گشوده است. با وجود گسترش روزافزون کاربردهای هوش مصنوعی، بسیاری هنوز با اصطلاحات و مفاهیم پایهای این حوزه آشنا نیستند. از الگوریتمهای یادگیری عمیق گرفته تا شبکههای عصبی و پردازش زبان طبیعی، پشت هر یک از این عبارات دنیایی از دانش و فناوریهای پیشرفته نهفته است. اگر شما هم شیفته هوش مصنوعی شده و در پی آشنایی بیشتر با آن هستید، همراه ما شوید تا مفاهیم پایهای هوش مصنوعی را به زبانی ساده و روشن بشناسیم. هوش مصنوعی دقیقا چیست؟ هوش مصنوعی (Artificial Intelligence) که به اختصار AI نامیده میشود، به شاخهای از علوم کامپیوتر اشاره دارد که هدفش ساخت سیستمهای کامپیوتری با شیوه تفکر مشابه انسان است. هوش مصنوعی با برخورداری از هوش مشابه انسان امکان یادگیری، استدلال، حل مساله، درک زبان طبیعی و تشخیص الگوها را برای انجام وظایف در حوزه پزشکی، اقتصاد، حمل و نقل، تجارت، فناوری اطلاعات و غیره پیدا میکند. هوش مصنوعی این روزها به عنوان یک فناوری یا حتی یک موجودیت شناخته میشود که تعریف دقیق و جامع آن را مشکل میکند. علاوه بر این استفاده تبلیغاتی شرکتها از این عبارت دامنه آن را بسیار متغیر کرده است. برای مثال منظور گوگل از سرمایهگذاری در AI ارتقای محصولاتی مثل جیمیل و موتور جستجو با ابزارهای هوش مصنوعی است. از سوی دیگر مارک زاکربرگ، مدیرعامل متا از کلمه AI برای چتباتها استفاده میکند و برخی دیگر از آن برای اشاره به مدلهای زبانی مثل جمینای و ChatGPT استفاده میکنند. اصطلاحات پایهای هوش مصنوعی متخصصان حوزه کامپیوتر هوش مصنوعی را نقطه عطف جدید در دنیای فناوری معرفی میکنند اما مفاهیم مرتبط با آن کمی پیچیده و گیجکننده به نظر میرسد. احتمالا در مقالات یا ویدیوهای مربوط به هوش مصنوعی با تعداد زیادی از این عبارات روبرو خواهید شد. برای اینکه این اصطلاحات بهتر درک کنید، نیک آموز فهرستی از مفاهیم اصلی و کلیدی در هوش مصنوعی را آماده کرده که شناخت خوبی از هوش مصنوعی به شما میدهد. یادگیری ماشین (Machine Learning) شاخهای مهم از هوش مصنوعی است که به سیستم امکان میدهد بدون نیاز به برنامهنویسی صریح، از دادهها یاد گرفته و عملکرد خود را بهبود ببخشد. به عبارت دیگر به جای اینکه به کامپیوتر بگوییم چه کاری انجام دهد، به آن داده میدهیم و سیستم به مرور یاد میگیرد که چگونه از آن دادهها برای تصمیمگیری استفاده کند. این کار با استفاده از الگوریتمهای پیچیده انجام میشود که به کامپیوتر اجازه میدهند تا الگوها و روابط پنهان در دادهها را شناسایی کند. برای مثال اینستاگرام از یادگیری ماشین استفاده میکند تا بر اساس تاریخچه لایکها ویدیوهای مرتبط را به شما پیشنهاد دهند. یادگیری عمیق (Deep Learning) از زیرشاخههای یادگیری ماشین است که بر پایه شبکههای عصبی با لایههای متعدد مثل کانولوشن (CNN) یا شبکههای عصبی بازگشتی (RNN) ساخته میشود. یادگیری عمیق به ماشینها کمک میکند تا جهان را شبیه انسان درک کرده و مسائل پیچیده مانند تشخیص تصویر، پردازش زبان طبیعی و تولید محتوا را با دقت بالا حل کننند. هوش مصنوعی عمومی (AGI) این مدل میتواند مثل انسان فکر کند، یاد بگیرد و به طیف وسیعی از وظایف و مسائل مختلف بپردازد. OpenAI سرمایهگذاری گستردهای در زمینه AGI انجام داده و هدف از آن توسعه ماشینی است که با تواناییهای شناختی مشابه انسان، مسائل جدید را بدون نیاز به برنامهریزی دقیق و مشخص حل کند. این نوع هوش مصنوعی میتواند انقلابی در بسیاری از زمینهها ایجاد کند و پتانسیل این را دارد که به یکی از بزرگترین دستاوردهای علمی و تکنولوژیکی بشر تبدیل شود. در عین حال AGI برای بسیاری ترسناکترین جنبه از هوش مصنوعی است؛ کافی است به فیلمهایی فکر کنید که در آنها ماشینهای فوق هوشمند کنترل دنیا را به دست میگیرند! هوش مصنوعی مولد (Generative AI) مدلی است که توانایی تولید متن، تصویر، کد و مواردی از این دست را دارد. برخلاف روشهای سنتی که تنها قادر به تحلیل و پردازش دادههای موجود هستند، هوش مصنوعی مولد دادههای جدیدی تولید میکند که به طرز شگفتآوری واقعی و خلاقانه است. قویترین نمونههای آن هوش مصنوعی جمینای گوگل و ChatGPT است که به صورت آنی به همه سوالات ما پاسخ میدهند. این ابزارها از مدلهایی قدرت میگیرند که با حجم انبوهی از داده آموزش دیدهاند. توهم (Hallucinations) به پدیدهای اشاره دارد که در آن مدل هوش مصنوعی اطلاعات نادرست، بیاساس یا بیربط تولید میکند. این اتفاق زمانی رخ میدهد که مدل در دادههای آموزشی اطلاعات دقیقی برای سوال مطرح شده ندارد، یا بهطور نادرست الگوهای دادهها را تفسیر میکند. این توهمات میتوانند از پاسخهای جزئی نادرست تا اطلاعات کاملاً ساختگی متغیر باشد و چالش بسیار مهمی است چون منجر به انتشار اطلاعات نادرست و کاهش اعتماد کاربران به سیستمهای هوش مصنوعی شود. برای رفع این مشکل پژوهشگران در حال توسعه تکنیکهایی هستند که دقت مدلها را افزایش داده و توانایی آنها در تشخیص و اصلاح اشتباهات را بهبود میبخشد. سوگیری (Bias) ابزارهای هوش مصنوعی گاهی بهدلیل دادههای نامتوازن یا طراحی نادرست، نتایج غیرمنصفانه یا تبعیضآمیز تولید میکنند. به عنوان مثال اگر یک مدل تشخیص چهره برای شناسایی افراد مظنون به ارتکاب جرم با دادههایی آموزش داده شود که عمدتا شامل تصاویر افراد با رنگ پوست خاصی است، احتمالا مدل افراد با رنگ پوست خاص را بیشتر به عنوان مجرم شناسایی میکند. سوگیری در هوش مصنوعی میتواند تاثیرات منفی جدی در تصمیمگیریها و کاربردهای مختلف از جمله استخدام، اعطای وام و امور سلامت و قضایی داشته باشد. بنابراین شناسایی و کاهش سوگیری در سیستمهای هوش مصنوعی از اهمیت بالایی برخوردار است تا اطمینان حاصل شود که فناوری به طور منصفانه و دقیق عمل میکند. بینایی ماشین (Computer Vision) شاخهای از هوش مصنوعی است که به کامپیوترها توانایی درک و تحلیل تصاویر و ویدیوهای آفلاین یا زنده را میدهد. بینایی ماشین به کمک یادگیری عمیق و شبکههای عصبی پیشرفته به کامپیوترها یاد میدهد که دنیای واقعی را مشاهده کرده و اطلاعات مفید را از تصاویر استخراج کنند. این فناوری برای تشخیص اشیا در تصاویر، ردیابی حرکت، تشخیص چهره و توضیح تصاویر به صورت متنی استفاده میشود. بینایی ماشین در بسیاری از کاربردهای روزمره از جمله ماشینهای خودران، سیستمهای نظارتی، تشخیص پزشکی و واقعیت افزوده نقش مهمی ایفا میکند. اصطلاحات مربوط به مدلهای هوش مصنوعی مدلها از پایهای ترین مفاهیم در دنیای هوش مصنوعی هستند که امکان توسعه سیستمهای قدرتمند را فراهم میسازند. در ادامه با اصلاحات مرتبط با آنها آشنا میشویم. مدل هوش مصنوعی (AI model) مدل هوش مصنوعی ساختاری ریاضیاتی و آماری است که برای انجام وظایف خاصی از جمله پیشبینی، طبقهبندی و شناسایی الگوها طراحی شده است. مدلها با استفاده از الگوریتمهای یادگیری ماشین و دادههای آموزشی، بهگونهای تنظیم میشوند که به ورودیهای جدید پاسخ مناسب دهند. برای مثال مدل تشخیص چهره با تحلیل تصاویر و شناسایی ویژگیهای مهم مانند شکل چشمها و بینی قادر به تشخیص افراد است. مدل زبانی بزرگ (LLM) گونهای مدل هوش مصنوعی با توانایی پردازش و تولید متون در قالب لحن انسانی است. جمینای گوگل پرکاربردترین نمونه از مدل زبانی بزرگ است که در پاسخ به درخواست کاربر امکان تولید انواع متن و جدول دارد. قبلا در نیک آموز به شکل کامل توضیح دادیم که مدل زبانی بزرگ چیست و چطور توسعه مییابد. مدل دیفیوژن (Diffusion model) نوعی مدل مولد است که برای تولید تصویر و ویدیو از روی پرامپت متنی به کار میرود و به دلیل توانایی بالا در ایجاد محتوای خلاقانه و دقیق، توجه زیادی را به خود جلب کرده است. این مدل با فرآیندی به نام دیفیوژن (انتشار)، دادههای ورودی را به تدریج به نویز تبدیل کرده و سپس با معکوس کردن فرآیند، دادههای جدید و با کیفیت بالا تولید میکنند. دیفیوژن به مدل اجازه میدهد تا اطلاعات پیچیده و جزئیات دقیق را حفظ کرده و نتایج واقعگرایانه ایجاد کند. مدل بنیادی (Foundation model) این مدلهای مولد روی مجموعه عظیمی از دادهها آموزش دیده و میتوان از آنها برای دامنه گستردهای از کاربردها بهره برد. جمینای، ChatGPT و Llama نمونههایی از مدل بنیادی هستند. بسیاری از شرکتها مدلهای خود را بهعنوان چند وظیفهای هم معرفی میکنند، بدین معنی که امکان پردازش قالبهای داده مختلف مثل تصویر، متن و ویدیو را دارند. توسعه این مدلها به منابع محاسباتی بزرگ و دادههای آموزشی وسیع نیاز داشته و در حوزههایی مانند پردازش زبان طبیعی، تشخیص تصویر و محاسبات پیچیده به کار میروند. مدل پیشرو (Frontier model) این عبارت بسیار شیک و پسامدرن بهنظر میرسد اما تنها اصطلاحی تجاری برای مدلهای هوش مصنوعی منتشر نشده است. روی کاغذ مدلهای پیشرو باید بسیار قویتر از نمونههای فعلی باشند اما نگرانیهایی در مورد ریسکهای آنها نیز وجود دارد. هدف از توسعه مدلهای پیشرو، دستیابی به سطح بالاتری از هوش و قابلیتهای پردازشی است که میتواند کاربردهای گستردهای در صنایع مختلف داشته باشد. اصطلاحات مربوط به آموزش مدلها آموزش مدل (Model Training) آموزش فرایندی است که طی آن مدل با تحلیل مجموعههای داده روش درک دادهها را فرا گرفته و توان تشخیص الگوها و پیشبینی را پیدا میکند. در این فرآیند، مدل با دریافت ورودیهای متنوع و مقایسه خروجیهای تولید شده با نتایج مورد انتظار، به تدریج تنظیم میشود. برای مثال مدلهای زبانی بزرگ مثل جمینای با خواندن مجموعه دادههای عظیم آموزش میبینید و زمانی که شما از آنها سوالی میپرسید، به لطف تجربه قبلی میدانند که درباره چه چیزی صحبت میکنید و پاسخ مناسب را به شما ارائه میکنند. آموزش شاید در نگاه اول ساده بهنظر برسد اما به منابع گسترده و توان محاسباتی بالا نیاز دارد که توسط پردازشگرهای گرافیکی قدرتمند و گرانقیمت تامین میشود. مدلهای هوش مصنوعی را میتوان با قالبهای داده مختلف به ویژه متن، تصویر و ویدیو آموزش داد. پارامتر (Parameter) پارامترها متغیرهای عددی در مدل هستند که نحوه تبدیل ورودی (مثلا پرامپت) به خروجی را مشخص میکنند. پارامترها در فرآیند آموزش بهصورت گامبهگام بهینه میشوند تا مدل بهترین عملکرد را در پیشبینیها و تصمیمگیریها ارائه دهد. پارامترهای بهینهسازیشده به مدل اجازه میدهند تا الگوها و روابط پیچیده را در دادهها شناسایی کرده و پاسخهای دقیقی به ورودی جدید ارائه دهد. شرکتها اغلب برای نمایش توانایی و سطح پیچیدگی مدلهای خود روی تعداد بالای پارامترهای آن تاکید میکنند. برای مقایسه هوش مصنوعی ایرانی درنا ۸ میلیارد پارامتر و مدل زبانی Llama 3.1 متا ۴۰۵ میلیارد پارامتر دارد. برچسب زنی داده (Data labeling) در هوش مصنوعی به دادههای خام برچسب یا اطلاعات توصیفی اضافه میشود تا مدل با یادگیری از آنها پیشبینیهای دقیقتری انجام دهد. این برچسبها شامل دستهبندی، ویژگی یا توضیحات دیگری است که به مدل کمک میکنند تا الگوها و روابط موجود در دادهها را شناسایی کند. برای مثال در زمینه تشخیص تصویر برچسبها ممکن است شامل نام اشیا موجود در تصاویر باشند. برچسبزنی داده معمولا به صورت دستی توسط کارشناسان انجام میشود و کیفیت آن تاثیر زیادی بر دقت و عملکرد نهایی مدل هوش مصنوعی دارد. یادگیری بدون نظارت (Unsupervised Learning) شاخهای از یادگیری ماشین است که در آن دادهها برچسبگذاری نشده و به الگوریتم هیچ اطلاعات پیشفرضی درباره دستهبندی دادهها داده نمیشود. در این حالت الگوریتم بهصورت خودکار الگوها، ساختارها و ارتباطات پنهان در دادهها را جستجو کرده و آنها را بر اساس شباهتهایشان به گروههای مختلف تقسیم میکند. بهعنوان مثال خوشهبندی مشتریان دیجیکالا بر اساس رفتار خرید از کاربردهای یادگیری بدون نظارت است. نرخ یادگیری (Learning rate) یک پارامتر بسیار مهم در الگوریتمهای یادگیری ماشین است که سرعت یادگیری مدل را کنترل میکند. اگر نرخ یادگیری خیلی کم باشد، مدل بسیار کند یاد میگیرد و ممکن است در بهینهسازی گیر کند. از طرف دیگر، اگر نرخ یادگیری خیلی بالا باشد، مدل با عجله بهسمت جوابهای نزدیک به بهینه حرکت کرده و هرگز به بهترین جواب نمیرسد. تنظیم صحیح نرخ یادگیری بسیار مهم و نیازمند آزمایش و تجربه است تا به بهترین نتایج در فرآیند آموزش مدل دست یافت. ایپاک (Epoch) در حوزه یادگیری عمیق به یک دور کامل آموزش مدل روی مجموعه داده آموزشی Epoch گفته میشود. تصور کنید که میخواهید به یک کودک الفبای فارسی آموزش دهید. هر بار که تمام حروف الفبا را به او نشان داده و میخواهید آنها را تکرار کند، یک Epoch محسوب میشود. در یادگیری ماشین نیز مدل با تکرار این فرآیند و مشاهده تمام دادههای آموزشی، بهتدریج پارامترهای خود را تنظیم میکند تا بتواند الگوهای موجود در دادهها را بهتر شناسایی کند. تعداد ایپاکها یکی از مهمترین پارامترها در آموزش مدلهای یادگیری عمیق است و انتخاب مناسب آن به عوامل مختلفی مانند اندازه دادهها، پیچیدگی مدل و توان محاسباتی بستگی دارد. وزن (Weight) وزن در شبکههای عصبی بهعنوان یک پارامتر قابل تنظیم برای تعیین سطح ارتباط بین نورونها عمل میکند. اگر هر نورون را در شبکه عصبی یک گره فرض کنیم، ارتباط بین این گرهها توسط خطوط نشان داده میشود. وزن اختصاص دادهشده به این خطوط نشان میدهد که چقدر سیگنال از یک نورون به نورون دیگر منتقل شود. به عبارت دیگر وزن اهمیت هر ورودی را در تعیین خروجی مدل مشخص میکنند. وزن بزرگتر نشان میدهند که ورودی مربوطه تاثیر بیشتری بر روی خروجی دارد. دیگر اصطلاحات هوش مصنوعی پردازش زبان طبیعی (NLP) آنچه که به هوش مصنوعی توان درک زبان انسان را میدهد، پردازش زبان طبیعی است که از طریق یادگیری ماشین ممکن میشود. مدل ChatGPT با همین روش قادر به تحلیل متن، ترجمه ماشینی، تشخیص گفتار، تولید زبان طبیعی و پاسخ به سوالات است. یکی دیگر از ابزارهای قدرتمند OpenAI برپایه NLP فناوری Whisper است که در ویدیوها صدا را بهصورت خودکار زیرنویس یا به فایل متنی تبدیل میکند. چتبات (Chatbot) برنامهای است که با استفاده از هوش مصنوعی مکالمات متنی یا صوتی شبیه به انسان با کاربران برقرار میکند. چتباتها با پردازش زبان طبیعی (NLP) آموزش داده میشوند تا سوالات کاربران را درک کرده و به آنها پاسخ دهند. چتباتها در سایتهای خارجی و ایرانی در زمینههای زیادی مثل پشتیبانی مشتریان، آموزش، سرگرمی و تجارت الکترونیک مورد استفاده قرار میگیرند. باتها بهطور خودکار به سوالات متداول پاسخ میدهند، سفارشات را ثبت کرده و بهعنوان یک راهنمای مجازی عمل میکنند. از جمله چتباتهای ایرانی میتوان به زیگپ اشاره کرد که در ارائه ایده و پاسخ به سوالات به شما کمک میکند. استنتاج (Inference) به فرآیندی اشاره دارد که در آن مدل از دادههای جدید استفاده میکند تا پیشبینیها یا پاسخهایی ارائه دهد. این فرآیند پس از آموزش مدل صورت میگیرد و شامل اعمال مدل به ورودیهای جدید برای تولید خروجیهای مرتبط است. بهعنوان مثال در یک مدل تشخیص تصویر، استنتاج بهمعنی تشخیص اشیا در تصاویر جدیدی است که قبلاً مدل آنها را ندیده است. استنتاج در زمینههای مختلفی مانند ترجمه زبان، تشخیص گفتار، تحلیل دادههای پزشکی و امور مالی بهکار میرود و کلید اصلی بهرهبرداری از مدلهای هوش مصنوعی است. توکن (Token) توکن به حجم خاصی از متن اشاره دارد؛ برای مثال تعداد کلمات، بخشهایی از کلمات یا حتی حروف مجزا. مدلهای زبانی برای تحلیل متن آن را به چند توکن خرد کرده و پس از شناسایی ارتباط بین آنها پاسخ را تولید میکنند. تعداد توکنهایی که مدل یکباره قادر به پردازش آنهاست «پنجره محتوا» نام دارد و هرچه بیشتر باشد، میتوان نتایج بهتر و پیچیدهتری تولید کرد. برای مثال پنجره محتوای جمینای ۳۲ هزار توکن است تا کاربر امکان طرح مسائل طولانیتر و پیچیدهتر با چت بات را داشته باشد. شبکه عصبی (Neural network) شبکه عصبی در هوش مصنوعی معماری محاسباتی است که از ساختار و عملکرد مغز انسان الهام گرفته شده است. این شبکه از لایههای متعددی از گرهها (نورونها) تشکیل شده که بهصورت موازی کار میکنند. هر نود در یک لایه به نودهای لایه بعدی متصل است و این اتصالات با وزنهای قابل تنظیم مشخص میشوند. شبکههای عصبی برای یادگیری الگوها و روابط پیچیده در تشخیص تصویر، پردازش زبان طبیعی، ترجمه ماشینی و پیشبینیهای مالی مورد استفاده قرار میگیرند و بهدلیل توانایی بالا در مدلسازی روابط غیرخطی و پیچیده، بسیار محبوب هستند. ترانسفورمر (Transformer) یک مدل معماری در هوش مصنوعی است که از مکانیزم توجه (Attention) برای پردازش دادهها استفاده میکند. این سازوکار به مدل اجازه میدهد تا به صورت همزمان تمام قسمتهای ورودی را در نظر گرفته و ارتباط بین آنها را بهتر درک کند. برای درک بهتر این مفهوم تصور کنید کاربر از هوش مصنوعی میپرسد آسمان چه رنگی است؟ مدل ترانسفورمر از یک نمایش برداری برای شناسایی ارتباط بین کلمات رنگ، آسمان و آبی استفاده کرده و خروجی را تولید میکند: آسمان آبی است. این ویژگی باعث میشود که ترانسفورمرها در مقایسه با مدلهای قدیمیتر مانند RNN و LSTM کارایی و دقت بیشتری در پردازش متنهای طولانی و پیچیده داشته باشند. ترانسفورمرها بهطور گسترده در مدلهای پیشرفتهای مانند جمینای، GPT و T5 استفاده شده و در ترجمه ماشینی، تولید متن، خلاصهسازی و سایر وظایف پردازش زبان طبیعی کاربرد گستردهای دارند. RAG RAG مخفف Retrieval-Augmented Generation بوده و به روشی در هوش مصنوعی اشاره دارد که در آن مدلهای زبانی بزرگ (LLM) از یک پایگاه دانش خارجی برای تولید پاسخهای دقیقتر استفاده میکنند. به عبارت سادهتر RAG به مدلهای زبانی این امکان را میدهد که اطلاعات مرتبط را از یک پایگاه داده بازیابی کرده و از آن برای تولید پاسخهای بهتر استفاده کنند. این روش برای سوالاتی که نیاز به اطلاعات خاص و بهروز دارند مفید است و از وقوع توهم یا ارائه پاسخ ساختگی جلوگیری میکند. به عنوان مثال اگر از یک مدل زبانی با قابلیت RAG بپرسید که «ایران در المپیک پاریس چند مدال گرفته؟»، جواب آن در دوره آموزش موجود نیست و مدل باید با مراجعه به یک پایگاه دانش خارجی مثل سایت المپیک یا خبرگزاریهای معتبر پاسخ دقیق و بهروز را ارائه دهد. اصطلاحات مربوط به سخت افزار هوش مصنوعی چیپ H100 انویدیا تراشه H100 انویدیا محبوبترین واحد پردازش گرافیکی (GPU) است که برای آموزش مدلهای هوش مصنوعی استفاده میشود. این چیپ بهصورت تخصصی برای آموزش و اجرای هوش مصنوعی بهینه شده و اغلب سازندگان مدلهای AI از جمله متا از آن بهره میبرند. تقاضای فوقالعاده برای تراشه H100 انویدیا را به یکی از با ارزشترین برندهای جهان تبدیل کرده اما شرکتهای دیگر هم سرگرم توسعه چیپهای هوش مصنوعی خود هستند که تسلط انویدیا بر بازار را کاهش میدهد. واحد پردازش عصبی (NPU) NPU پردازنده اختصاصی در کامپیوتر، تبلت و گوشیهای هوشمند است که توان انجام محاسبات هوش مصنوعی را به دستگاه میدهد. برخلاف پردازنده مرکزی (CPU) و پردازنده گرافیکی (GPU) که برای کارهای عمومی طراحی شدهاند، NPU به صورت ویژه برای تسریع محاسبات هوش مصنوعی مانند یادگیری عمیق، بینایی ماشین و پردازش زبان طبیعی بهینهسازی شده است. NPU که اپل آن را موتور عصبی مینامد، در اجرای بسیاری از وظایف مبتنی بر AI مثل حذف صدای زمینه هنگام تماس کارایی عالی دارد. ترافلاپس (TOPS) TOPS واحدی برای سنجش سرعت پردازش سیستمهای کامپیوتری، به ویژه در حوزه هوش مصنوعی است و نشان میدهد که یک کامپیوتر در هر ثانیه چند تریلیون عملیات ممیز شناور انجام میدهد. در شبکههای عصبی عمیق، انجام میلیاردها عملیات محاسباتی برای یادگیری الگوها و پیشبینیها ضروری است و به همین خاطر سیستمهای با TOPS بالا مدلهای پیچیده و بزرگ را در زمان کوتاهتری آموزش میدهند. پرکاربرد ترین مدل های هوش مصنوعی در ادامه به معرفی مدلهای پرکاربرد هوش مصنوعی میپردازیم که در زمینههای مختلف از جمله پردازش زبان طبیعی، تشخیص تصویر و تحلیل داده مورد توجه هستند. OpenAI ChatGPT همه سروصدایی که این روزها در زمینه هوش مصنوعی برپا شده، مدیون ChatGPT است؛ چت باتی که شرکت OpenAI در اواخر سال ۲۰۲۲ منتشر کرد. محبوبیت خیرهکننده این سرویس باعث شد غولهای فناوری مثل گوگل و متا هم وارد بازی شوند و این روزها شاهد شکلگیری رقابت داغی بین آنها هستیم. مایکروسافت Copilot دستیار هوشمند Copilot بر پایه GPT شرکت OpenAI توسعه یافته و با اکثر محصولات مایکروسافت یکپارچه شده است. یکی از دلایل این همکاری، مالکیت ۴۹ درصد OpenA توسط مایکروسافت است. گوگل Gemini گوگل با چتبات جمینای وارد میدان رقابت شده که مدلهای مختلفی دارد اما نسخه پایه آن رایگان است. جمینای با دستیار هوش مصنوعی گوگل هم یکپارچه شده و کاربردهای بسیار متنوع و سرگرمکنندهای دارد. متا Llama همین چند روز پیش در نیک آموز از انتشار نسخه جدید متا Llama بهعنوان بزرگترین مدل هوش مصنوعی متن باز جهان سخن گفتیم. این مدل زبانی بزرگ بسیار قدرتمند است و بسیاری را نسبت به آینده مدلهای متن باز AI خوشبین کرده است. اپل Intelligence اپل قابلیتهای مبتنی بر هوش مصنوعی را تحت برند Intelligence به محصولاتش اضافه میکند. یکی از این قابلیتها در دسترس قرار گرفتن ChatGPT از طریق دستیار سیری است! Anthropic Claude این شرکت توسط یکی از کارکنان سابق OpenAI بنا شده و توانسته سرمایه ۴ میلیارد دلاری از آمازون و چند صد میلیون دلاری از گوگل دریافت کند. به تازگی «مایک کریگر» از موسسان اینستاگرام به عنوان مدیر محصول به Anthropic پیوسته است. xAI Grok xAI کمپانی هوش مصنوعی ایلان ماسک است که یک مدل زبانی بزرگ به نام Grok را توسعه داده و سرمایهگذاران ۶ میلیارد دلار به آن تزریق کردهاند. Perplexity این شرکت بهواسطه توسعه موتور جستجوی هوش مصنوعی شناخته شده اما این اواخر به کپیبرداری اطلاعات متهم شده بود. Hugging Face پلتفرمی است که به عنوان دایرکتوری برای مجموعههای داده و مدلهای AI کار میکند. جمعبندی در این مطلب از مجله نیک آموز به توضیح مفاهیم پایه و اصطلاحات کلیدی در حوزه هوش مصنوعی از جمله یادگیری ماشین، یادگیری عمیق، شبکههای عصبی، بینایی ماشین، سوگیری و غیره پرداختیم که برای آشنایی مقدماتی با این حوزه مفید است. هوش مصنوعی (AI) شاخهای از علوم کامپیوتر با هدف ایجاد سیستمهایی است که مشابه انسان فکر کنند، یاد بگیرند و مسائل مختلف را حل کنند. یادگیری عمیق یکی از زیرشاخههای یادگیری ماشین است که بر اساس شبکههای عصبی چندلایه عمل میکند. در نهایت مدلهای محبوب و پرکاربرد هوش مصنوعی مولد مانند ChatGPT و جمینای گوگل را معرفی کردیم که توانایی تولید محتوا مانند متن، تصویر، صدا و کد را دارند. چه رتبه ای میدهید؟ میانگین ۰ / ۵. از مجموع ۰ اولین نفر باش معرفی نویسنده مقالات 401 مقاله توسط این نویسنده محصولات 0 دوره توسط این نویسنده تیم فنی نیک آموز مقالات مرتبط ۰۱ آبان هوش مصنوعی ساخت پایپ لاین RAG در یک قدم بسیار ساده + نمونه کد واقعی نگین فاتحی ۰۴ مهر هوش مصنوعی پارادایم های RAG در مدل های زبانی بزرگ تیم فنی نیک آموز ۲۰ شهریور هوش مصنوعی نحوه ساخت RAG های کارآمد با Query Routing نگین فاتحی ۰۴ شهریور هوش مصنوعی راهنمای گام به گام مانیتورینگ مدل یادگیری ماشین نگین فاتحی دیدگاه کاربران لغو پاسخ دیدگاه نام و نام خانوادگی ایمیل ذخیره نام، ایمیل و وبسایت من در مرورگر برای زمانی که دوباره دیدگاهی مینویسم. موبایل برای اطلاع از پاسخ لطفاً مرا با خبر کن ثبت دیدگاه Δ