درحال ثبت‌نام

دوره آموزش ساخت چت‌بات فارسی کاملا آفلاین

این دوره با معرفی مبانی مدل‌های زبانی بزرگ (LLM)، معماری ترنسفورمر و مکانیزم Self-Attention آغاز می‌شود و نحوه کنترل خروجی مدل (با پارامترهایی مانند Temperature و Top-p) و تکنیک‌های پرامپت‌نویسی را آموزش می‌دهد. در پایان دوره به ساخت ایجنت‌های هوشمند (Agents) تصمیم‌گیرنده با استفاده از ابزارهای سفارشی (Custom Tools) و مقدمه‌ای بر سیستم‌های چند ایجنتی (CrewAI) می‌پردازد و پروژه‌های پیشرفته‌ای مانند توصیف تصاویر (Multimodal) و Web Scraping را شامل می‌شود

اطلاعات دوره

معرفی دوره

در این دوره تخصصی، می‌آموزید که چگونه چت‌بات های فارسی کاملاً آفلاین را توسعه دهید. با مفاهیم بنیادی LLM‌ها، معماری ترنسفورمر و تکنیک‌های پیشرفته پرامپت انجینیرینگ آشنا می‌شوید. هسته اصلی دوره بر فریم‌ورک قدرتمند LangChain و زبان LCEL متمرکز است. با راه‌اندازی مدل‌های محلی (Ollama)، پیاده‌سازی سیستم‌های پیچیده RAG برای پاسخگویی بر اساس اسناد و ساخت ایجنت‌های هوشمند تصمیم‌گیرنده، مهارت‌های حیاتی برای توسعه پیشرفته‌ترین سیستم‌های چت‌بات فارسی را کسب کنید.

دسترسی همیشگی به محتوا دوره

همه کلاس‌ها ضبط می‌شوند و در هر زمان برای تمامی دانشجویان، چه آنلاین و چه حضوری، در دسترس خواهند بود!

پشتیبانی مستمر

در گروه اختصاصی دوره، پاسخ سؤالاتتان را بگیرید، پیشتیبانی دریافت کنید و با دیگر شرکت‌کنندگان در ارتباط باشید!

مدرک معتبر پایان دوره

با تکمیل دوره، مدرک پایان دوره دریافت کنید و مهارت‌های خود را رسمی کنید!

گروه پرسش و پاسخ

سوال بپرسید، تجربه به اشتراک بگذارید و از دیگران یاد بگیرید، همه در یک فضای آموزشی فعال!

محتوای کاربردی، یادگیری موثر

هر آنچه می‌آموزید، مستقیماً در پروژه‌ها و کار واقعی قابل استفاده است!

جلسه اول رایگان

اولین جلسه را به‌صورت آنلاین و رایگان تجربه کنید، سپس با خیال راحت برای ادامه مسیر تصمیم بگیرید!

این دوره برای چه افرادی مناسب است؟

مهندسان داده و یادگیری ماشین
توسعه‌دهندگان بک‌اند و نرم‌افزار
کارشناسان و متخصصان حوزه امنیت داده
پژوهشگران و دانشجویان ارشد هوش مصنوعی

مفاهیمی که یاد خواهید گرفت

  • مبانی مدل‌های زبانی (LLM) و معماری ترنسفورمر: درک مفاهیم بنیادی مانند توکن‌ها، امبدینگ‌ها، مکانیزم Self-Attention و کنترل خروجی مدل با پارامترهای تولید متن (Temperature, Top-k, Top-p),.
  • پیاده‌سازی مدل‌های آفلاین: نصب و راه‌اندازی مدل‌های زبان بزرگ (مانند Llama 3 و Gemma) به‌صورت محلی با استفاده از Ollama و تعامل با آن‌ها از طریق کتابخانه پایتون,.
  • توسعه رابط کاربری: ساخت رابط کاربری جذاب و سریع برای چت‌بات‌ها با Streamlit و مدیریت تاریخچه مکالمات با استفاده از Session State,.
  • فریم‌ورک LangChain و LCEL: تسلط بر هسته مرکزی LangChain Expression Language (LCEL) برای ساخت زنجیره‌های پیچیده، استفاده حرفه‌ای از Prompt Templates و ساختاردهی خروجی (JSON/Pydantic) با Output Parsers,.
  • پردازش اسناد (RAG): آماده‌سازی اسناد ساختارنیافته (مانند PDF) با استفاده از Document Loaderها، استراتژی‌های بخش‌بندی متن (Chunking) و پیاده‌سازی سیستم‌های کامل RAG با پایگاه داده‌های برداری (ChromaDB و FAISS) برای پاسخگویی بر اساس دانش خارجی.
  • ایجنت‌های هوشمند: ساخت ایجنت‌های تصمیم‌گیرنده که می‌توانند از ابزارهای جستجوی آماده یا ابزارهای سفارشی پایتون استفاده کنند (Tool Calling)، و همچنین ساخت سیستم‌های چند ایجنتی (Multi-Agent Systems) با CrewAI.
  • پروژه‌های پیشرفته: اجرای پروژه‌های چندرسانه‌ای (مانند توصیف تصاویر با LLaVA و خلاصه‌سازی ویدیو با Whisper) و انجام Web Scraping و تحلیل داده‌ها (مانند Resume Parser).
  • بهینه‌سازی پروداکشن: آشنایی با vLLM برای افزایش سرعت اجرای همزمان مدل‌ها و کاهش مصرف حافظه در محیط‌های عملیاتی
سطح دوره متوسط تا پیشرفته
پیش نیازهای دوره آشنایی مقدماتی با Python
آشنایی پایه با مفاهیم هوش مصنوعی
تجربه کار با Linux یا Docker (ترجیحا)
آشنایی پایه با Web APIها
چالش ورودی دوره ندارد
علیرضا اخوان‌پور

مدرس دوره

علیرضا اخوان‌پور
  • 8 سال سابقه ی مدیر فنی در مجموعه دانش بنیان “شناسا”

  • توسعه دهنده پایتون و فعال در پروژه های بینایی ماشین با یادگیری عمیق

  • مشاور و منتور هوش مصنوعی در شتاب دهنده همتک، همراه اول، ایبیکام

  • مدرس دانشگاه شهید رجایی از سال ۱۳۹۴

  • ارائه ورکشاپ و تدریس در دانشگاه های صنعتی شریف، امیرکبیر و تهران

  •  تجربه ی + 2000 ساعت تدریس مرتبط

سرفصل‌های دوره

فصل اول: مبانی مدل‌های زبانی و معماری ترنسفورمر

در این فصل، مدل‌های زبان بزرگ (LLM)، معماری ترنسفورمر و مکانیزم Self-Attention معرفی می‌شوند. دانشجو مفاهیم پایه‌ای چون توکن‌ها، امبدینگ‌ها و تفاوت مدل‌های Autoregressive و Encoder-Decoder را می‌آموزد. تمرکز اصلی بر اصول کنترل خروجی با پارامترهای تولید متن (مانند Temperature) و تکنیک‌های پرامپت است.

مفاهیم پایه LLM:

  • مدل زبانی چیست و کاربردهای آن.
  • توکن و توکنایزیشن، مفاهیم امبدینگ.

 معماری ترنسفورمر:

  • مکانیزم Self-Attention و نقش آن در LLMها.
  •  ساختار Encoder و Decoder و تفاوت مدل‌های autoregressive و .encoder-decoder

کنترل تولید متن:

پارامترهای مهم: Temperature ,Top-k ,Top-p و تأثیر آن‌ها بر خروجی مدل.

تکنیک‌های پرامپت:
o Zero-Shot ,Few-Shotو مثال‌های عملی

مبانی مدل‌های زبانی و معماری ترنسفورمر - نیک آموز

فصل دوم: مبانی، نصب و راه‌اندازی مدل‌های محلی

فصل پیش رو به شما کمک می‌کند تا مدل‌های LLM را به صورت محلی راه‌اندازی کنید. این شامل نصب Ollama، کار با دستورات خط فرمان و اجرای مدل‌های معروف است. محتوای این بخش تعامل با مدل‌ها از طریق کتابخانه پایتون Ollama و آشنایی با مفاهیم اولیه Prompt Engineering و Hugging Face Hub را پوشش می‌دهد.

مقدمه و آماده‌سازی محیط:

  • معرفی و نصب Ollama  برای اجرای مدل‌های محلی.
  • کار با دستورات خط فرمان .Ollama (pull, run, serve, list)
  • اجرای مدل‌های معروف.(Llama 3, DeepSeek, Gemma, Qwen)

تعامل با LLM:

  • استفاده از کتابخانه Ollama در پایتون.
  • مفاهیم اولیه Prompt Engineering و انواع پیام‌ها .(System, User, Assistant)
  • آشنایی با Hugging Face Hub و استفاده از API‌های رایگان آن.

مبانی، نصب و راه‌اندازی مدل‌های محلی

فصل سوم: رابط کاربری هوشمند با Streamlit

در این بخش، شما می‌آموزید که چطور یک رابط کاربری سریع و جذاب برای اپلیکیشن‌های هوش مصنوعی بسازید. آموزش مبانی Streamlit، پیاده‌سازی قابلیت حفظ تاریخچه مکالمات با Session State و یکپارچه‌سازی با مدل‌های Ollama از سرفصل‌های مهم هستند. تمرکز بر توسعه یک Chatbot ساده و شبیه‌سازی خروجی Streaming شبیه به ChatGPT است.

  • مبانی Streamlit برای ساخت اپلیکیشن‌های هوش مصنوعی.
  • ایجاد یک Chatbot ساده با قابلیت حفظ تاریخچه .(Session State)
  • یکپارچه‌سازی مدل‌های Ollama با رابط کاربری .Streamlit
  • شبیه‌سازی رابط کاربری .ChatGPT (Streaming Output)

رابط کاربری هوشمند با  Streamlit - نیک آموز

فصل چهارم: هسته مرکزی LangChain و LCEL

محتوای این فصل بر فریم‌ورک LangChain و هسته آن یعنی LCEL متمرکز است تا زنجیره‌های پیچیده‌ای از اجزای LLM بسازید. سرفصل‌ها شامل مدیریت ورودی با Prompt Templates و ساختاردهی خروجی با Output Parsers (تبدیل به JSON/Pydantic) است. هدف             نهایی، پیاده‌سازی جریان‌های کاری پیشرفته (مانند مسیریابی) و استفاده از Memory برای تاریخچه مکالمات است.

مفاهیم پایه:

  • مفهوم LCEL  (LangChain Expression Language) و اهمیت آن.
  • ساخت اولین Chain با استفاده از .Runnables

مدیریت ورودی و خروجی:

  • استفاده حرفه‌ای از Prompt Templates (مدیریت متغیرها)
  • کار با Output Parsers:
      • تبدیل خروجی به .String
      • تبدیل خروجی به JSON و ساختارهای .Pydantic (Structured Output)
      • مدیریت خروجی‌های CSV و لیست‌ها

جریان‌های کاری پیشرفته:

  • اجرای Chain‌ها به صورت موازی .(RunnableParallel)
  • شرطی‌سازی و مسیریابی Chain‌ها (Router Chains) برای سناریوهای مختلف.

حافظه (Memory):

  • پیاده‌سازی Chat History در .LangChain
  • ذخیره و بازیابی تاریخچه مکالمات.

هسته مرکزی LangChain و LCEL

فصل پنجم: پردازش اسناد و داده‌ها (Data Ingestion)

در فصل پیش رو، یاد می‌گیرید که چگونه اسناد و داده‌های ساختارنیافته (مانند PDF) را برای LLM آماده کنید. این شامل استفاده از Document Loaderها و ابزارهایی چون Docling برای استخراج داده‌هاست. تمرکز بر رفع محدودیت Context Window از طریق فرآیند Chunking و استفاده از روش‌های مؤثر مانند RecursiveTextSplitter است.

کار با Document Loader‌ها:

  • بارگذاری فایل‌های PDF (PyMuPDF)،  Word و Excel
  • استفاده از MarkItDown و Docling  برای تبدیل اسناد پیچیده به فرمت قابل فهم برای مدل.
  • استخراج جداول و تصاویر از اسناد.
  • استراتژی‌های بخش‌بندی متن (Chunking):
  • محدودیت Context Window و جلوگیری از فراموشی مدل.
  • روش‌های .RecursiveTextSplitter

پردازش اسناد و داده‌ها - نیک آموز

فصل ششم: سیستم‌های RAG (بازیابی اطلاعات و تولید متن)

این بخش به طور کامل به سیستم‌های RAG (Retrieval-Augmented Generation) و نحوه غنی‌سازی پاسخ‌های LLM با دانش خارجی می‌پردازد. سرفصل‌ها شامل درک Embedding، کار با Vector Stores (مانند ChromaDB و FAISS) و پیاده‌سازی کامل چرخه RAG است. تمرکز اصلی بر ساخت Chain نهایی RAG و تکنیک‌های بهینه‌سازی آن است.

  • مفاهیم Embedding و .Vector Stores
  • کار با پایگاه داده‌های برداری (ChromaDB وFAISS).
  • پیاده‌سازی کامل چرخه  RAG:
    • ایندکس کردن اسناد.
    • جستجوی تشابه (Similarity Search vs MMR).
    • ساخت Chain نهایی برای پاسخگویی به سوالات از روی اسناد .(PDF ,Text)
  • بهینه‌سازی RAG و تکنیک‌های پیشرفته .(RAG Prompt Tuning)

سیستم‌های RAG - نیک آموز

فصل هفتم: ایجنت‌های هوشمند (AI Agents) و ابزارها

در این فصل، شما از Chain به سمت ایجنت‌های تصمیم‌گیرنده که می‌توانند از ابزارها (Tools) استفاده کنند، حرکت می‌کنید. محتوا شامل مفهوم Tool Calling، استفاده از ابزارهای جستجوی آماده و ساخت ابزارهای سفارشی است. هدف این بخش، ساخت ایجنت‌های پیشرفته در LangChain و معرفی CrewAI برای ایجاد سیستم‌های چند ایجنتی (Multi-Agent Systems) است.

Tool Calling:

  • آشنایی با مفهوم اتصال ابزار به .LLM
  • استفاده از ابزارهای آماده .(Search Tools: Tavily ,DuckDuckGo ,Wikipedia)
  • ساخت ابزارهای سفارشی (Custom Tools) با پایتون.

ساخت Agent:

  • تفاوت Chain و Agent
  • ساخت ایجنت‌های تصمیم‌گیرنده با LangChain. 
  • مدیریت وضعیت ایجنت .(State Management)

پروژه پیشرفته Agentic RAG:

ترکیب RAG با قابلیت جستجو و تصمیم‌گیری خودکار.

مقدمه‌ای بر CrewAI:

ساخت سیستم‌های چند ایجنتی (Multi-Agent Systems) برای سناریوهای پیچیده (مانند نوشتن داستان یا برنامه‌ریزی سفر).

ایجنت‌های هوشمند (AI Agents) و ابزارها

فصل هشتم: پروژه‌های کاربردی و چندرسانه‌ای

فصل پیش رو دانش شما را در قالب پروژه‌های عملی و چندرسانه‌ای (Multimodal) به کار می‌گیرد. سرفصل‌ها شامل توصیف تصاویر با مدل‌های Vision (مانند LLaVA) و پردازش ویدیو با Whisper است. تمرکز این بخش بر پروژه‌های تخصصی مانند Web Scraping & Analysis و ساخت یک Resume Parser برای تحلیل خودکار اطلاعات است.

پروژه‌های چندرسانه‌ای (Multimodal):

  • توصیف تصاویر با مدل‌های Vision (مانند LLaVA).
  • پردازش ویدیو و تبدیل گفتار به نوشتار (Whisper) برای خلاصه‌سازی ویدیو.

پروژه‌های تخصصی:

  • Web Scraping & Analysis: استخراج داده از وب (مانند لینکدین) و تحلیل پروفایل‌ها یا رزومه‌ها با کمک LLM.
  • Resume Parser:  ساخت سیستم هوشمند تحلیل و استخراج اطلاعات از رزومه.

پروژه‌های کاربردی و چند رسانه‌ای

فصل نهم: بهینه‌سازی و اجرای سریع مدل‌ها (vLLM)

محتوای این فصل به طور کامل به بهینه‌سازی و افزایش سرعت اجرای مدل‌ها اختصاص دارد. معرفی vLLM و کاربرد آن در سرعت‌بخشی و کاهش مصرف حافظه، هسته اصلی این بخش است. تمرکز بر مقایسه عملکرد vLLM در اجرای همزمان درخواست‌ها و ادغام آن با LangChain برای بهینه‌سازی RAG و Agentها در محیط پروداکشن است.

  • معرفی vLLM و کاربرد آن در سرعت‌بخشی و کاهش مصرف حافظه.
  • آموزش نصب و راه‌اندازی vLLM در محیط محلی.
  • مقایسه vLLM با اجرای استاندارد Ollama و مدل‌های Hugging Face.
  • نمونه عملی: اجرای چند درخواست همزمان با vLLM و بررسی .Performance
  • ادغام vLLM با LangChain و استفاده در RAG و Agentها.

vLLM - نیک آموز

چارچوب برگزاری دوره

فرایند برگزاری و زمانبندی

ارزیابی و ثبت نام دوره ثبت نام
تاریخ برگزاری (شروع ) 30 دی ماه – سه شنبه ها – ساعت: 16 – 19
 طول دوره 40 ساعت (13 جلسه ۳ ساعته)
روز
ساعت
دقیقه
ثانیه
تا پایان ثبت نام

نوع ارائه و هزینه دوره

حضوری

ظرفیت باقی‌مانده: 30 نفر

محل‌برگزاری: تهران، یوسف‌آباد، نیک‌آموز (مسیریابی)

امکان پرداخت 4 قسطه با

17,810,000
13,700,000 تومان
آنلاین

ظرفیت باقی‌مانده: 15 نفر

پلتفرم برگزاری: لحظه‌نگار

امکان پرداخت 4 قسطه با

18,538,000
12,976,600 تومان

دوره آموزش ساخت چت‌بات فارسی کاملا آفلاین

اگر هنوز برای ثبت‌نام قطعی تصمیم نگرفته‌اید اما می‌خواهید ظرفیت خود را حفظ کنید، فرم زیر را تکمیل کنید. با توجه به محدودیت ظرفیت، اولویت با افرادی است که زودتر رزرو خود را انجام دهند.

"*" فیلدهای الزامی را نشان می دهد

از تجربه تا نتیجه!

شرکت‌کنندگان این دوره از دانشجویان کلاس‌های استاد ارومند هستند و نظرات واقعی‌شان را درباره سبک تدریس و کلاس‌ها می‌گویند. تجربه‌هایشان را بشنوید و با اطمینان تصمیم بگیرید!

نمونه مدرک نیک آموز

مدرک نیک آموز نشان‌دهنده تخصص و مهارتی است که شما را برای موفقیت در آزمون‌های استخدامی و پروژه‌های حرفه‌ای آماده می‌کند. همچنین، شما می‌توانید پس از دریافت مدرک، آن را مستقیماً به بخش Education پروفایل لینکدین خود اضافه کرده و رزومه خود را معتبرتر کنید

نمونه آموزش‌ها

ویدیوهای زیر، نمونه‌هایی از سبک تدریس و کلاس‌های استاد ارومند هستند. با مشاهده آن‌ها می‌توانید با نحوه آموزش ایشان آشنا شوید و با اطمینان بیشتری برای شرکت در دوره تصمیم بگیرید.

شرکت در جلسه اول آنلاین این دوره رایگان می‌باشد، جهت ثبت‌نام کلیک کنید.

سوالات تخصصی دوره ساخت چت‌بات فارسی کاملا آفلاین

در معماری ترنسفورمر، مکانیزم Self-Attention چه نقشی را ایفا می‌کند؟ همچنین، سه مورد از پارامترهای مهم کنترل تولید متن که در این دوره برای کنترل خروجی مدل‌های LLM معرفی می‌شوند، کدامند؟

نقش مکانیزم Self-Attention در LLMها و معماری ترنسفورمر معرفی و توضیح داده می‌شود. در فصل اول، پارامترهای مهمی برای کنترل تولید متن معرفی می‌شوند که بر خروجی مدل تأثیر می‌گذارند. این پارامترها عبارتند از: Temperature Top-k و Top

LCEL یا (LangChain Expression Language) مفهوم هسته مرکزی فریم‌ورک LangChain است و اهمیت آن در ساخت زنجیره‌های پیچیده توضیح داده می‌شود. ابزار Output Parsers در این فصل برای ساختاردهی خروجی مدل استفاده می‌شود و امکان تبدیل خروجی به فرمت‌هایی مانند String، JSON و ساختارهای Pydantic (خروجی ساختاریافته) و همچنین مدیریت خروجی‌های CSV و لیست‌ها را فراهم می‌کند.

فرآیند Chunking (بخش‌بندی متن) برای رفع محدودیت Context Window و جلوگیری از فراموشی مدل هنگام پردازش اسناد و داده‌ها طراحی شده است. هدف اصلی Chunking آماده‌سازی اسناد و داده‌های ساختارنیافته (مانند PDF) برای LLM است

در سیستم‌های RAG، برای غنی‌سازی پاسخ‌های LLM با دانش خارجی، از Vector Stores یا پایگاه داده‌های برداری استفاده می‌شود. فصل ششم شامل آموزش مفاهیم Embedding و کار با پایگاه داده‌های برداری است.

تفاوت بین Chain و Agent شرح داده می‌شود؛ در حالی که Chainها جریان‌های کاری از پیش تعریف شده را اجرا می‌کنند، ایجنت‌ها به سمت سیستم‌های تصمیم‌گیرنده‌ای حرکت می‌کنند که می‌توانند از ابزارها (Tools) استفاده کنند. استفاده از ابزارهای سفارشی (Custom Tools) با پایتون، به ایجنت این قابلیت را می‌دهد تا اقدامات خاصی را فراتر از توانایی‌های مدل زبانی انجام دهد و ایجنت‌های تصمیم‌گیرنده پیشرفته‌ای در LangChain ساخته شوند.

سوالات متداول دوره ساخت چت‌بات فارسی کاملا آفلاین

1. پخش لایو (زنده) دوره به چه صورت است؟

ما با استفاده پلتفرم لحظه نگار پخش زنده را خواهیم داشت. شما در این پلتفرم محیط کلاس، صدا و دسکتاپ مدرس را بصورت زنده تماشا خواهید کرد.

شما بصورت چت آنلاین می توانید سوالات خود را بپرسید و مدرس هم سوالات شما را پاسخ خواهد داد. البته توجه داشته باشید که این پروسه پاسخگویی هر ۴۰ دقیقه یکبار خواهد بود تا مدرس رشته کلام از دستش خارج نشود. البته که گروه تلگرامی دوره در اختیار شما است و می توانید سوالات خود را آنجا هم مطرح کنید.

بله. شما برای شرکت در کلاس و نصب نرم افزارهای مورد نیاز (اعلان خواهد شد) باید با خود لپ تاپ همراه داشته باشید.

بله، دسکتاپ و صدای مدرس رکورد خواهد شد و در پلیر اختصاصی اسپات پلیر به همراه کلید لایسنس ارائه خواهد شد. شما در سیستم عامل‌های ویندوز، اندروید، آیفون (سیب، اناردون)، مک بوک می‌توانید فیلم را مشاهده کنید.

بله، پس از اتمام دوره و گذراندن آزمون پایانی، گواهی معتبری به شما ارائه می‌شود که می‌توانید آن را در رزومه خود ثبت کنید.

بله، امکان خرید اقساطی با اسنپ پی فراهم شده است. برای اطلاعات بیشتر می‌توانید با مشاورین مجموعه در تماس باشید یا راهنمای خرید اقساطی دوره آموزشی با اسنپ پی را مطالعه بفرمایید.

درخواست مشاوره

"*" فیلدهای الزامی را نشان می دهد

ثبت‌نام جلسه اول رایگان

"*" فیلدهای الزامی را نشان می دهد