درحال ثبت‌نام

نحوه برگزاری دوره: آنلاین

آموزش ساخت چت‌بات فارسی کاملا آفلاین

(چگونه با استفاده از LLM و RAG یک چت بات کاملا آفلاین و بدون نیاز به اینترنت بسازیم!؟)

این دوره با معرفی مبانی مدل‌های زبانی بزرگ (LLM)، معماری ترنسفورمر و مکانیزم Self-Attention آغاز می‌شود و نحوه کنترل خروجی مدل (با پارامترهایی مانند Temperature و Top-p) و تکنیک‌های پرامپت‌نویسی را آموزش می‌دهد. در پایان دوره به ساخت ایجنت‌های هوشمند (Agents) تصمیم‌گیرنده با استفاده از ابزارهای سفارشی (Custom Tools) و مقدمه‌ای بر سیستم‌های چند ایجنتی (CrewAI) می‌پردازد و پروژه‌های پیشرفته‌ای مانند توصیف تصاویر (Multimodal) و Web Scraping را شامل می‌شود. در انتهای این دوره قادر خواهید بود  یک چت بات  کاملا آفلاین و بدون نیاز به اینترنت با استفاده از LLM و RAG بسازید.

اطلاعات دوره

معرفی دوره

در این دوره تخصصی، می‌آموزید که چگونه چت‌بات های فارسی کاملاً آفلاین را توسعه دهید. با مفاهیم بنیادی LLM‌ها، معماری ترنسفورمر و تکنیک‌های پیشرفته پرامپت انجینیرینگ آشنا می‌شوید. هسته اصلی دوره بر فریم‌ورک قدرتمند LangChain و زبان LCEL متمرکز است. با راه‌اندازی مدل‌های محلی (Ollama)، پیاده‌سازی سیستم‌های پیچیده RAG برای پاسخگویی بر اساس اسناد و ساخت ایجنت‌های هوشمند تصمیم‌گیرنده، مهارت‌های حیاتی برای توسعه پیشرفته‌ترین سیستم‌های چت‌بات فارسی را کسب کنید.

دسترسی همیشگی به محتوا دوره

همه کلاس‌ها ضبط می‌شوند و در هر زمان برای تمامی دانشجویان، چه آنلاین و چه حضوری، در دسترس خواهند بود!

پشتیبانی مستمر

در گروه اختصاصی دوره، پاسخ سؤالاتتان را بگیرید، پیشتیبانی دریافت کنید و با دیگر شرکت‌کنندگان در ارتباط باشید!

مدرک معتبر پایان دوره

با تکمیل دوره، مدرک پایان دوره دریافت کنید و مهارت‌های خود را رسمی کنید!

گروه پرسش و پاسخ

سوال بپرسید، تجربه به اشتراک بگذارید و از دیگران یاد بگیرید، همه در یک فضای آموزشی فعال!

محتوای کاربردی، یادگیری موثر

هر آنچه می‌آموزید، مستقیماً در پروژه‌ها و کار واقعی قابل استفاده است!

جلسه اول رایگان

اولین جلسه را به‌صورت آنلاین و رایگان تجربه کنید، سپس با خیال راحت برای ادامه مسیر تصمیم بگیرید!

این دوره برای چه افرادی مناسب است؟

مهندسان داده و یادگیری ماشین
توسعه‌دهندگان بک‌اند و نرم‌افزار
کارشناسان و متخصصان حوزه امنیت داده
پژوهشگران و دانشجویان ارشد هوش مصنوعی

مفاهیمی که یاد خواهید گرفت

  • مبانی مدل‌های زبانی (LLM) و معماری ترنسفورمر: درک مفاهیم بنیادی مانند توکن‌ها، امبدینگ‌ها، مکانیزم Self-Attention و کنترل خروجی مدل با پارامترهای تولید متن (Temperature ,Top-k ,Top-p).
  • پیاده‌سازی مدل‌های آفلاین: نصب و راه‌اندازی مدل‌های زبان بزرگ (مانند Llama 3 و Gemma) به‌صورت محلی با استفاده از Ollama و تعامل با آن‌ها از طریق کتابخانه پایتون,.
  • توسعه رابط کاربری: ساخت رابط کاربری جذاب و سریع برای چت‌بات‌ها با Streamlit و مدیریت تاریخچه مکالمات با استفاده از Session State.
  • فریم‌ورک LangChain و LCEL: تسلط بر هسته مرکزی LangChain Expression Language (LCEL) برای ساخت زنجیره‌های پیچیده، استفاده حرفه‌ای از Prompt Templates و ساختاردهی خروجی (JSON/Pydantic) با Output Parsers.
  • پردازش اسناد (RAG): آماده‌سازی اسناد ساختارنیافته (مانند PDF) با استفاده از Document Loaderها، استراتژی‌های بخش‌بندی متن (Chunking) و پیاده‌سازی سیستم‌های کامل RAG با پایگاه داده‌های برداری (ChromaDB و FAISS) برای پاسخگویی بر اساس دانش خارجی.
  • ایجنت‌های هوشمند: ساخت ایجنت‌های تصمیم‌گیرنده که می‌توانند از ابزارهای جستجوی آماده یا ابزارهای سفارشی پایتون استفاده کنند (Tool Calling)، و همچنین ساخت سیستم‌های چند ایجنتی (Multi-Agent Systems) با CrewAI.
  • پروژه‌های پیشرفته: اجرای پروژه‌های چندرسانه‌ای (مانند توصیف تصاویر با LLaVA و خلاصه‌سازی ویدیو با (Whisper) و انجام Web Scraping و تحلیل داده‌ها (مانند Resume Parser).
  • بهینه‌سازی پروداکشن: آشنایی با vLLM برای افزایش سرعت اجرای همزمان مدل‌ها و کاهش مصرف حافظه در محیط‌های عملیاتی.
سطح دوره متوسط تا پیشرفته
پیش نیازهای دوره آشنایی مقدماتی با Python
آشنایی پایه با مفاهیم هوش مصنوعی
تجربه کار با Linux یا Docker (ترجیحا)
آشنایی پایه با Web APIها
چالش ورودی دوره ندارد
علیرضا اخوان‌پور

مدرس دوره

علیرضا اخوان‌پور
  • 8 سال سابقه ی مدیر فنی در مجموعه دانش بنیان “شناسا”

  • توسعه دهنده پایتون و فعال در پروژه های بینایی ماشین با یادگیری عمیق

  • مشاور و منتور هوش مصنوعی در شتاب دهنده همتک، همراه اول، ایبیکام

  • مدرس دانشگاه شهید رجایی از سال ۱۳۹۴

  • ارائه ورکشاپ و تدریس در دانشگاه های صنعتی شریف، امیرکبیر و تهران

  •  تجربه ی + 2000 ساعت تدریس مرتبط

سرفصل‌های دوره

فصل اول: مبانی مدل‌های زبانی و معماری ترنسفورمر

در این فصل، مدل‌های زبان بزرگ (LLM)، معماری ترنسفورمر و مکانیزم Self-Attention معرفی می‌شوند. دانشجو مفاهیم پایه‌ای چون توکن‌ها، امبدینگ‌ها و تفاوت مدل‌های Autoregressive و Encoder-Decoder را می‌آموزد. تمرکز اصلی بر اصول کنترل خروجی با پارامترهای تولید متن (مانند Temperature) و تکنیک‌های پرامپت است.

مفاهیم پایه LLM:

  • مدل زبانی چیست و کاربردهای آن.
  • توکن و توکنایزیشن، مفاهیم امبدینگ.

 معماری ترنسفورمر:

  • مکانیزم Self-Attention و نقش آن در LLMها.
  •  ساختار Encoder و Decoder و تفاوت مدل‌های autoregressive و encoder-decoder.

کنترل تولید متن:

پارامترهای مهم: Temperature ,Top-k ,Top-p و تأثیر آن‌ها بر خروجی مدل.

تکنیک‌های پرامپت:
 Zero-Shot ,Few-Shot و مثال‌های عملی

مبانی مدل‌های زبانی و معماری ترنسفورمر

فصل دوم: مبانی، نصب و راه‌اندازی مدل‌های محلی

فصل پیش رو به شما کمک می‌کند تا مدل‌های LLM را به صورت محلی راه‌اندازی کنید. این شامل نصب Ollama، کار با دستورات خط فرمان و اجرای مدل‌های معروف است. محتوای این بخش تعامل با مدل‌ها از طریق کتابخانه پایتون Ollama و آشنایی با مفاهیم اولیه Prompt Engineering و Hugging Face Hub را پوشش می‌دهد.

مقدمه و آماده‌سازی محیط:

  • معرفی و نصب Ollama برای اجرای مدل‌های محلی.
  • کار با دستورات خط فرمان Ollama (pull ,run ,serve ,list).
  • اجرای مدل‌های معروف(Llama 3 ,DeepSeek ,Gemma ,Qwen).

تعامل با LLM:

  • استفاده از کتابخانه Ollama در پایتون.
  • مفاهیم اولیه Prompt Engineering و انواع پیام‌ها (System ,User ,Assistant).
  • آشنایی با Hugging Face Hub و استفاده از API‌های رایگان آن.

مبانی، نصب و راه‌اندازی مدل‌های محلی

فصل سوم: رابط کاربری هوشمند با Streamlit

در این بخش، شما می‌آموزید که چطور یک رابط کاربری سریع و جذاب برای اپلیکیشن‌های هوش مصنوعی بسازید. آموزش مبانی Streamlit، پیاده‌سازی قابلیت حفظ تاریخچه مکالمات با Session State و یکپارچه‌سازی با مدل‌های Ollama از سرفصل‌های مهم هستند. تمرکز بر توسعه یک Chatbot ساده و شبیه‌سازی خروجی Streaming شبیه به ChatGPT است.

  • مبانی Streamlit برای ساخت اپلیکیشن‌های هوش مصنوعی.
  • ایجاد یک Chatbot ساده با قابلیت حفظ تاریخچه (Session State).
  • یکپارچه‌سازی مدل‌های Ollama با رابط کاربری Streamlit.
  • شبیه‌سازی رابط کاربری ChatGPT (Streaming Output).

 

 رابط کاربری هوشمند با  Streamlit

فصل چهارم: هسته مرکزی LangChain و LCEL

محتوای این فصل بر فریم‌ورک LangChain و هسته آن یعنی LCEL متمرکز است تا زنجیره‌های پیچیده‌ای از اجزای LLM بسازید. سرفصل‌ها شامل مدیریت ورودی با Prompt Templates و ساختاردهی خروجی با Output Parsers (تبدیل به JSON/Pydantic) است. هدف‌نهایی، پیاده‌سازی جریان‌های کاری پیشرفته (مانند مسیریابی) و استفاده از Memory برای تاریخچه مکالمات است.

مفاهیم پایه:

  • مفهوم LCEL (LangChain Expression Language) و اهمیت آن.
  • ساخت اولین Chain با استفاده از Runnables.

مدیریت ورودی و خروجی:

  • استفاده حرفه‌ای از Prompt Templates (مدیریت متغیرها)
  • کار با Output Parsers:
      • تبدیل خروجی به String.
      • تبدیل خروجی به JSON و ساختارهای Pydantic (Structured Output).
      • مدیریت خروجی‌های CSV و لیست‌ها

جریان‌های کاری پیشرفته:

  • اجرای Chain‌ها به صورت موازی (Runnable Parallel).
  • شرطی‌سازی و مسیریابی Chain‌ها (Router Chains) برای سناریوهای مختلف.

حافظه (Memory):

  • پیاده‌سازی Chat History در LangChain.
  • ذخیره و بازیابی تاریخچه مکالمات.

 هسته مرکزی LangChain و LCEL

فصل پنجم: پردازش اسناد و داده‌ها (Data Ingestion)

در فصل پیش رو، یاد می‌گیرید که چگونه اسناد و داده‌های ساختارنیافته (مانند PDF) را برای LLM آماده کنید. این شامل استفاده از Document Loaderها و ابزارهایی چون Docling برای استخراج داده‌هاست. تمرکز بر رفع محدودیت Context Window از طریق فرآیند Chunking و استفاده از روش‌های مؤثر مانند RecursiveTextSplitter است.

کار با Document Loader‌ها:

  • بارگذاری فایل‌های PDF (PyMuPDF) ,Word و Excel
  • استفاده از MarkItDown و Docling برای تبدیل اسناد پیچیده به فرمت قابل فهم برای مدل.
  • استخراج جداول و تصاویر از اسناد.
  • استراتژی‌های بخش‌بندی متن (Chunking):
  • محدودیت Context Window و جلوگیری از فراموشی مدل.
  • روش‌های RecursiveTextSplitter.

 

پردازش اسناد و داده‌ها (Data Ingestion)

فصل ششم: سیستم‌های RAG (بازیابی اطلاعات و تولید متن)

این بخش به طور کامل به سیستم‌های RAG (Retrieval-Augmented Generation) و نحوه غنی‌سازی پاسخ‌های LLM با دانش خارجی می‌پردازد. سرفصل‌ها شامل درک Embedding، کار با Vector Stores (مانند ChromaDB و FAISS) و پیاده‌سازی کامل چرخه RAG است. تمرکز اصلی بر ساخت Chain نهایی RAG و تکنیک‌های بهینه‌سازی آن است.

  • مفاهیم Embedding و Vector Stores.
  • کار با پایگاه داده‌های برداری (ChromaDB وFAISS).
  • پیاده‌سازی کامل چرخه  RAG:
    • ایندکس کردن اسناد.
    • جستجوی تشابه (Similarity Search vs MMR).
    • ساخت Chain نهایی برای پاسخگویی به سوالات از روی اسناد (PDF ,Text).
  • بهینه‌سازی RAG و تکنیک‌های پیشرفته (RAG Prompt Tuning).

 

سیستم‌های RAG (بازیابی اطلاعات و تولید متن)

فصل هفتم: ایجنت‌های هوشمند (AI Agents) و ابزارها

در این فصل، شما از Chain به سمت ایجنت‌های تصمیم‌گیرنده که می‌توانند از ابزارها (Tools) استفاده کنند، حرکت می‌کنید. محتوا شامل مفهوم Tool Calling، استفاده از ابزارهای جستجوی آماده و ساخت ابزارهای سفارشی است. هدف این بخش، ساخت ایجنت‌های پیشرفته در LangChain و معرفی CrewAI برای ایجاد سیستم‌های چند ایجنتی (Multi-Agent Systems) است.

Tool Calling:

  • آشنایی با مفهوم اتصال ابزار به LLM.
  • استفاده از ابزارهای آماده (Search Tools: Tavily ,DuckDuckGo ,Wikipedia).
  • ساخت ابزارهای سفارشی (Custom Tools) با پایتون.

ساخت Agent:

  • تفاوت Chain و Agent.
  • ساخت ایجنت‌های تصمیم‌گیرنده با LangChain. 
  • مدیریت وضعیت ایجنت (State Management).

پروژه پیشرفته Agentic RAG:

ترکیب RAG با قابلیت جستجو و تصمیم‌گیری خودکار.

مقدمه‌ای بر CrewAI:

ساخت سیستم‌های چند ایجنتی (Multi-Agent Systems) برای سناریوهای پیچیده (مانند نوشتن داستان یا برنامه‌ریزی سفر).

ایجنت‌های هوشمند (AI Agents) و ابزارها

فصل هشتم: پروژه‌های کاربردی و چندرسانه‌ای

فصل پیش رو دانش شما را در قالب پروژه‌های عملی و چندرسانه‌ای (Multimodal) به کار می‌گیرد. سرفصل‌ها شامل توصیف تصاویر با مدل‌های Vision (مانند LLaVA) و پردازش ویدیو با Whisper است. تمرکز این بخش بر پروژه‌های تخصصی مانند Web Scraping & Analysis و ساخت یک Resume Parser برای تحلیل خودکار اطلاعات است.

پروژه‌های چندرسانه‌ای (Multimodal):

  • توصیف تصاویر با مدل‌های Vision (مانند LLaVA).
  • پردازش ویدیو و تبدیل گفتار به نوشتار (Whisper) برای خلاصه‌سازی ویدیو.

پروژه‌های تخصصی:

  • Web Scraping & Analysis: استخراج داده از وب (مانند لینکدین) و تحلیل پروفایل‌ها یا رزومه‌ها با کمک LLM.
  • Resume Parser:  ساخت سیستم هوشمند تحلیل و استخراج اطلاعات از رزومه.

 پروژه‌های کاربردی و چندرسانه‌ای

فصل نهم: بهینه‌سازی و اجرای سریع مدل‌ها (vLLM)- (تدریس در صورت صلاحدید مدرس دوره با توجه به سطح علمی دانشجویان)

محتوای این فصل به طور کامل به بهینه‌سازی و افزایش سرعت اجرای مدل‌ها اختصاص دارد. معرفی vLLM و کاربرد آن در سرعت‌بخشی و کاهش مصرف حافظه، هسته اصلی این بخش است. تمرکز بر مقایسه عملکرد vLLM در اجرای همزمان درخواست‌ها و ادغام آن با LangChain برای بهینه‌سازی RAG و Agentها در محیط پروداکشن است.

  • معرفی vLLM و کاربرد آن در سرعت‌بخشی و کاهش مصرف حافظه.
  • آموزش نصب و راه‌اندازی vLLM در محیط محلی.
  • مقایسه vLLM با اجرای استاندارد Ollama و مدل‌های Hugging Face.
  • نمونه عملی: اجرای چند درخواست همزمان با vLLM و بررسی Performance.
  • ادغام vLLM با LangChain و استفاده در RAG و Agentها.

 بهینه‌سازی و اجرای سریع مدل‌ها (vLLM)

چارچوب برگزاری دوره

فرایند برگزاری و زمانبندی

ارزیابی و ثبت نام دوره ثبت نام
تاریخ برگزاری (شروع ) 30 دی ماه – سه شنبه ها – ساعت: 16 – 19
 طول دوره 40 ساعت (13 جلسه ۳ ساعته)
روز
ساعت
دقیقه
ثانیه
تا پایان ثبت نام

نوع ارائه و هزینه دوره

حضوری

ظرفیت باقی‌مانده: 30 نفر

محل‌برگزاری: تهران، یوسف‌آباد، نیک‌آموز (مسیریابی)

امکان پرداخت 4 قسطه با

17,810,000
13,700,000 تومان
آنلاین

ظرفیت باقی‌مانده: 15 نفر

پلتفرم برگزاری: لحظه‌نگار

مشاهده دوره و پرسش و پاسخ آنلاین در بستر لحظه‌نگار

دسترسی آفلاین به ویدیوها در اسپات‌پلیر

دانلود PDF پاورپوینت‌ جلسات

دارای گروه پرسش و پاسخ تلگرامی

امکان پرداخت 4 قسطه با

19,850,000
13,895,000 تومان

دوره آموزش ساخت چت‌بات فارسی کاملا آفلاین

اگر هنوز برای ثبت‌نام قطعی تصمیم نگرفته‌اید اما می‌خواهید ظرفیت خود را حفظ کنید، فرم زیر را تکمیل کنید. با توجه به محدودیت ظرفیت، اولویت با افرادی است که زودتر رزرو خود را انجام دهند.

"*" فیلدهای الزامی را نشان می دهد

از تجربه تا نتیجه!

شرکت‌کنندگان این دوره از دانشجویان کلاس‌های استاد ارومند هستند و نظرات واقعی‌شان را درباره سبک تدریس و کلاس‌ها می‌گویند. تجربه‌هایشان را بشنوید و با اطمینان تصمیم بگیرید!

نمونه مدرک نیک آموز

مدرک نیک آموز نشان‌دهنده تخصص و مهارتی است که شما را برای موفقیت در آزمون‌های استخدامی و پروژه‌های حرفه‌ای آماده می‌کند. همچنین، شما می‌توانید پس از دریافت مدرک، آن را مستقیماً به بخش Education پروفایل لینکدین خود اضافه کرده و رزومه خود را معتبرتر کنید

نمونه آموزش‌ها

ویدیوهای زیر، نمونه‌هایی از سبک تدریس و کلاس‌های استاد ارومند هستند. با مشاهده آن‌ها می‌توانید با نحوه آموزش ایشان آشنا شوید و با اطمینان بیشتری برای شرکت در دوره تصمیم بگیرید.

شرکت در جلسه اول آنلاین این دوره رایگان می‌باشد، جهت ثبت‌نام کلیک کنید.

سوالات تخصصی دوره ساخت چت‌بات فارسی کاملا آفلاین

1. در این دوره واقعا با API سیستم‌های Cloud کار نخواهیم کرد؟ یعنی بدون اینترنت و کاملا آفلاین؟!

بله، نام دوره به صراحت “ساخت چت بات فارسی کاملا آفلاین” است. تمرکز این دوره بر “نصب و راه‌اندازی مدل‌های محلی” است تا بتوان مدل‌های LLM را به صورت محلی راه‌اندازی کرد. در فصل دوم، ابزاری مانند Ollama برای اجرای مدل‌های محلی معرفی و نصب می‌شود. آشنایی با Hugging Face Hub  و استفاده از API‌های رایگان آن نیز ذکر شده است.

LLM مخفف “مدل‌های زبان بزرگ” است. این مدل‌ها و مفاهیم پایه‌ای مانند توکن و امبدینگ معرفی می‌شوند.

مدل‌های معروفی که در این دوره اجرای آن‌ها آموزش داده می‌شود شامل Llama 3 ,DeepSeek ,Gemma و Qwen هستند.

RAG مخفف “Retrieval-Augmented Generation” به معنای بازیابی اطلاعات و تولید متن است.

کاربرد سیستم‌های RAG این است که پاسخ‌های مدل‌های زبان بزرگ (LLM) را با استفاده از دانش خارجی غنی‌سازی کنند. در این دوره نحوه پیاده‌سازی کامل چرخه RAG برای پاسخگویی به سوالات از روی اسناد مانند (PDF و Text) آموزش داده می‌شود.

بله، این دوره با هدف ساخت “چت بات فارسی” ارائه شده است. در این دوره آموزش داده می‌شود که چگونه اسناد و داده‌های ساختارنیافته را برای LLM آماده کنید. این شامل کار با Document Loaderها برای بارگذاری فایل‌هایی مانند PDF  با استفاده از ((PyMuPDF) و Word) است. در نهایت، همچنین، ساخت Chain نهایی RAG برای پاسخگویی به سوالات از روی اسناد PDF و Text ذکر شده است.

تمرکز اصلی دوره بر راه‌اندازی مدل‌ها به صورت محلی است به موضوع بهینه‌سازی و اجرای سریع مدل‌ها (vLLM) اختصاص دارد. معرفی vLLM و کاربرد آن در سرعت‌بخشی و کاهش مصرف حافظه است و ادغام vLLM با LangChain و استفاده از آن در RAG و Agentها در محیط پروداکشن (Production environment) را پوشش می‌دهد. استفاده از vLLM برای اجرای بهینه در محیط پروداکشن معمولاً مقدمه‌ای بر سرویس‌دهی یا هاست کردن مدل‌ها محسوب می‌شود.

LCEL به جای زنجیره‌های ساده استفاده می‌شود زیرا امکان ساخت جریان‌های کاری پیچیده و Modular را با ترکیب آسان مؤلفه‌ها فراهم می‌کند. این زبان بیانی، مدیریت ورودی‌ها با تمپلیت‌های پویا، پردازش خروجی به فرمت‌های ساختاریافته مانند JSON و اجرای موازی یا شرطی تسک‌ها را تسهیل می‌کند. همچنین، یکپارچه‌سازی قابلیت‌هایی مانند حافظه مکالمات و ابزارها را پشتیبانی کرده و توسعه برنامه‌های مقیاس‌پذیر و قابل نگهداری را ممکن می‌سازد.

جستجوی Similarity ساده، اسناد را صرفاً بر اساس نزدیکی امبدینگ به پرسش کاربر بازیابی می‌کند که ممکن است به نتایج تکراری یا کم‌تنوع منجر شود. در مقابل، روش MMR (Maximal Marginal Relevance) علاوه بر شباهت، معیار تنوع را نیز لحاظ می‌کند تا اسناد بازیافتی، اطلاعات تکراری کمتری داشته و جنبه‌های مختلف پرسش را پوشش دهند. این امر کیفیت پاسخ‌های تولیدشده را با کاهش افزونگی و افزایش اطلاعات مفید بهبود می‌بخشد.

برای محدود کردن خروجی مدل به فرمت‌های ساختاریافته مانند JSON، از ابزارهایی مانند Output Parsers در LangChain استفاده می‌شود. این تبدیل‌کننده‌ها با تعریف قالب‌های از پیش‌ تعیین‌شده (مثلاً با استفاده از Pydantic) و ترکیب آن‌ها با Prompt Templates، مدل را وادار می‌کنند تا داده‌ها را مطابق ساختار موردنظر تولید کند. سپس، خروجی مدل به‌صورت خودکار به JSON یا دیگر فرمت‌ها تبدیل و اعتبارسنجی می‌شود.

زنجیره‌های معمولی دنباله‌ای ثابت از عملیات را اجرا می‌کنند، در حالی که ایجنت‌ها توانایی تصمیم‌گیری پویا و استفاده از ابزارهای خارجی (مانند موتورهای جستجو) را دارند. ایجنت بر اساس ورودی کاربر، مسیر مناسب را انتخاب کرده و می‌تواند چندین عمل را به‌صورت تکراری انجام دهد تا به نتیجه برسد. این انعطاف، ایجنت‌ها را برای وظایف پیچیده‌تر مانند تحلیل داده‌های پویا یا تعامل با محیط ایده‌آ‌ل می‌کند.

معماری چند ایجنتی در CrewAI با توزیع مسئولیت‌ها بین ایجنت‌های تخصصی، وظایف پیچیده را به بخش‌های کوچک‌تر تقسیم می‌کند. برای مثال، در پروژه نوشتن داستان، یک ایجنت طرح داستان را می‌ریزد، دیگری شخصیت‌ها را توسعه می‌دهد و ایجنتی دیگر متن نهایی را ویرایش می‌کند. این همکاری باعث افزایش کارایی، کاهش خطا و خروجی باکیفیت‌تر در سناریوهای واقعی مانند برنامه‌ریزی یا تحلیل می‌شود.

پیاده‌سازی مدل‌های چندرسانه‌ای در محیط آفلاین با استفاده از ابزارهایی مانند Ollama و Hugging Face انجام می‌شود. برای پردازش تصویر، مدل‌هایی مانند LLaVA مستقیماً روی دستگاه نصب شده و تصاویر را تحلیل می‌کنند. برای ویدیو، از کتابخانه‌هایی مانند Whisper برای تبدیل گفتار به متن و استخراج داده‌ها استفاده می‌شود. این مدل‌ها به‌صورت محلی اجرا شده و نیازی به اتصال اینترنت ندارند.

بله، با استفاده از فریم‌ورک Streamlit می‌توان رابط کاربری چت‌باتی مشابه ChatGPT ایجاد کرد. این رابط قابلیت نمایش تاریخچه مکالمات، پشتیبانی از حالت Streaming برای شبیه‌سازی تایپ واقع‌زمان و یکپارچه‌سازی با مدل‌های محلی (مانند Ollama) را دارد. همچنین، با مدیریت State sessions، مکالمات ذخیره شده و تجربه کاربری روان و جذاب فراهم می‌شود.

سوالات متداول دوره ساخت چت‌بات فارسی کاملا آفلاین

1. پخش لایو (زنده) دوره به چه صورت است؟

ما با استفاده پلتفرم لحظه نگار پخش زنده را خواهیم داشت. شما در این پلتفرم محیط کلاس، صدا و دسکتاپ مدرس را بصورت زنده تماشا خواهید کرد.

لحظه‌نگار یک پلتفرم پخش وبینار و کلاس های آنلاین است؛ لحظه‌نگار ابزاری جامع برای مدیریت و اجرای رویدادهای آنلاین با تمرکز بر سرعت و کیفیت بالا است. تمرکز اصلی‌اش ثبت رویدادها، تحلیل‌ها یا روایت‌ها به شکل زنده یا مرحله‌به‌مرحله است.

شما بصورت چت آنلاین می توانید سوالات خود را بپرسید و مدرس هم سوالات شما را پاسخ خواهد داد. البته توجه داشته باشید که این پروسه پاسخگویی هر ۴۰ دقیقه یکبار خواهد بود تا مدرس رشته کلام از دستش خارج نشود. البته که گروه تلگرامی دوره در اختیار شما است و می توانید سوالات خود را آنجا هم مطرح کنید.

بله. شما برای شرکت در کلاس و نصب نرم افزارهای مورد نیاز (اعلان خواهد شد) باید با خود لپ تاپ همراه داشته باشید.

بله، دسکتاپ و صدای مدرس رکورد خواهد شد و در پلیر اختصاصی اسپات پلیر به همراه کلید لایسنس ارائه خواهد شد. شما در سیستم عامل‌های ویندوز، اندروید، آیفون (سیب، اناردون)، مک بوک می‌توانید فیلم را مشاهده کنید.

بله، پس از اتمام دوره و گذراندن آزمون پایانی، گواهی معتبری به شما ارائه می‌شود که می‌توانید آن را در رزومه خود ثبت کنید.

بله، امکان خرید اقساطی با اسنپ پی فراهم شده است. برای اطلاعات بیشتر می‌توانید با مشاورین مجموعه در تماس باشید یا راهنمای خرید اقساطی دوره آموزشی با اسنپ پی را مطالعه بفرمایید.

درخواست مشاوره

"*" فیلدهای الزامی را نشان می دهد

ثبت‌نام جلسه اول رایگان

"*" فیلدهای الزامی را نشان می دهد