توضیحات
دانلود سرفصلهای این دوره آموزشی منحصربفرد
سرفصلهای این دوره آموزشی
۱- مقدمه
مهندسی داده به عنوان یک جایگاه شغلی نوظهور در حوزه پردازش داده، نقش مهمی را در سامانههای اطلاعاتی مقیاسپذیر روز دنیا ایفا میکند. این جایگاه که در حال حاضر در ایران بیشتر مورد نیاز شرکتهای بزرگ است، در چند سال آینده، به یک بازیگر اصلی تمامی سامانههای اطلاعاتی بومی تبدیل خواهد شد. با توجه به جدید بودن این حوزه و نیاز کشور به وجود متخصصان صاحب نظر در این رشته، موسسه نیکآموز دورههای جامع و کاملی در این حوزه در نظر گرفته است که شروع این مسیر با دوره مبانی مهندسی داده خواهد بود.
مهندسی داده، مهندسی سامانههای مقیاسپذیر اطلاعاتی است و بنابراین به دانش مناسبی از حوزه پردازش دادههای کلان و طراحی سیستم های توزیع شده نیاز دارد. در دوره مبانی مهندسی داده، به مروری بر فناوریها و ابزارهای این حوزه از طریق انجام مثالهای عملی خواهیم پرداخت
دوره مبانی مهندسی داده برای افرادی طراحی شده است که آشنایی اولیه با مقدمات اصلی این حوزه یعنی تسلط به یک زبان برنامهنویسی و آشنایی مناسب با بانکهای اطلاعاتی رابطهای و غیررابطهای و مباحث انبارش دادهها (Data Warehousing) را دارند و قصد دارند وارد حوزه جدید زیرساختهای مقیاسپذیر پردازش داده و اکوسیستم کلانداده شوند.
بنابراین اگر تاکنون با هر یک از این مفاهیم سه گانه فوق آشنا نیستید و با آنها به صورت عملی کار نکردهاید، توصیه میکنیم ابتدا بر روی تقویت این حوزهها کار کنید. می توانید از دورههای متنوع نیکآموز در این خصوص هم استفاده کنید. پیشنهاد ما شرکت در دورههای زیر برای تقویت عملی مهارتهای مورد نیاز است:
از طرفی کار در حوزه سامانههای مقیاسپذیر به مبحث بیگدیتا و دادههای حجیم هم گره خورده است و آشنایی اولیه با اکوسیستم کلانداده، مزیت محسوب میشود اما مقدمهای بر کلانداده در این دوره گفته شده، ابزارهای اصلی مورد استفاده در این حوزه یعنی هدوپ و مولفههای مطرح آن مانند Hive و HDFS و نیز چارچوب پردازشی اسپارک (با تاکید بر پردازش جریان – Spark Structured Streaming) به صورت عملی کار خواهد شد. البته در آیندهای نزدیک، دورههای تخصصی و کاملی در حوزه بیگدیتا هم برگزار خواهد شد.
تمرکز اصلی این دوره بر ابزارها و مفاهیم مرتبط با طراحی زیرساختهای پردازش و ذخیره دادهها خواهد بود. محوریت این دوره، مباحث زیر خواهد بود:
۲- مفاهیم پایه مهندسی داده و مهارتهای لازم
در ابتدای دوره به بیان جایگاه و ضرورت مهندسی داده به عنوان پایه و اساس سامانههای مقیاسپذیر پردازش داده خواهیم پرداخت و ضمن مرور مهارتها و ابزارهای مورد نیاز در این حوزه، سرفصل کلی دوره مبانی مهندسی داده را بر اساس این مهارتها و ابزار، مورد بررسی قرار خواهیم داد تا دقیقا بدانید در انتهای دوره، چه مطالبی را فراخواهید گرفت و اگرسوال یا ابهامی هم دارید در ابتدای کار پاسخ داده شود.


بررسی شباهتها و تفاوتهای مهندسی داده با علم داده هم در این قسمت صورت خواهد گرفت تا شرکت کنندگان در دوره، جایگاه دقیق یک مهندس داده در سازمان را کاملا متوجه شوند و ارتباط آن با سایر حوزههای کاری را فرابگیرند.
۳- مفاهیم پایه داکر
با توجه به اینکه در طول دوره از داکر برای راه اندازی و کار با نرم افزارها استفاده خواهیم کرد، در ابتدای دوره، نصب و راهاندازی داکر و دستورات اصلی آنرا با هم مرور خواهیم کرد .


مطالب زیر در این بخش مورد بررسی قرار خواهند گرفت:
- نصب و راهاندازی Docker Desktop در ویندوز و docker در لینوکس
- بررسی یک داکرفایل و آشنایی با نحوه ساخته شدن یک ایمیج
- آشنایی با روند اجرای ایمیجها و نقش کانتینرها در اکوسیستم داکر


- اجرای یک ایمیج داکر و نحوه کار با آن و بررسی چرخه حیات یک ایمیج داکر از شروع تا انتها
- بررسی مفهوم والیومها و نحوه ذخیره دادهها در کانتینترها
- مرور دستورات اصلی خط فرمان داکر
۴- خط فرمان لینوکس
از آنجا که سیستمعامل پایه اکثر ایمیجهای موجود حوزه کلانداده مبتنی بر لینوکس است، نیاز داریم با خط فرمان لینوکس و دستورات اصلی مورد نیاز برای پردازش و کار با فایلهای داده نیز آشنا شویم .
در این بخش موارد زیر را به کمک مثالهای کاربردی بررسی میکنیم:
- فعال سازی خط فرمان لینوکس در ویندوز به کمک WSL
- هدایت ورودی و خروجی
- کار با فایلها و پوشهها
- آرگومانهای خط فرمان (خروجی استاندارد/خطای استاندارد)
- گروه بندی دستورات
- اسکریپتینگ و دستورات کنترلی
- انتخاب و جستجوی یک الگو (انواع دستور grep)
- Sort,Sed and Awk
- کار با ادیتورهای خط فرمان (vi,vim,nano)
۵- مفاهیم اصلی کلانداده
قبل از ادامه مسیر به سمت ابزارها و مهارتها، نیاز داریم که با اکوسیتم کلانداده به عنوان موتور محرک مهندسی داده آشنا شویم. اصولا زمانی شرکتها احساس نیاز به یک مهندس داده پیدا میکنند که حجم زیاد دادهها، آنها را با چالش مواجه کرده باشد. بنابراین یک مهندس داده، باید با مفاهیم پایه کلان داده که به طور خودکار با آنها سروکار خواهد داشت، آشنا باشد. در این راستا، شروع کار جدی ما در حوزه آموزش مهندسی داده با ابزارها و مفاهیم بیگ دیتا و کار عملی با آنها خواهد بود. در این حوزه موارد زیر را پی خواهیم گرفت:
- بررسی اکوسیستم و تاریخچه پروژههای کلانداده بنیاد آپاچی با تاکید بر هدوپ و اسپارک


- بررسی معماریهای پیشنهادی در طراحی سیستمهای مقیاسپذیر اطلاعاتی (معماری لامبدا/کاپا)
- آشنایی با مولفهها و اجزای اصلی هدوپ (ذخیره/پردازش/مدیریت منابع)
- بررسی امکانات جدید هدوپ ۳.
- کار عملی با سیستم فایل هدوپ از طریق ایجاد یک کلاستر مجازی بر روی داکر
- بررسی امکانات سامانه مدیریت منابع هدوپ (Yarn) به صورت عملی
- آشنایی با فرمتهای ذخیره و بازیابی فایل در اکوسیستم کلانداده
- بررسی مفاهیم و اصول کار با Hive به عنوان یک موتور پردازش SQL بر روی هدوپ .
- آشنایی با دیتابیسهای سطرگسترده (Wide Row) و کار عملی با Cassandra و HBase


۶- Apache Airflow
یک مهندس داده، کارهای زمانبندی شده زیادی را باید روزانه انجام دهد. سرساعت خاصی، از یک دیتابیس بکاپ بگیرد، فرآیند ETL و انتقال دادهها به انباره داده را در بازههای معین، انجام دهد، در پایان هر ماه، دادههای پارتیشنهای قدیمی را از دیتابیس اصلی جدا و بخش آرشیو منتقل کند و … . علاوه بر اینها، باید بتواند زنجیره یا جریانی از کارها را طراحی کند که با اتمام یک یا چند کار، کار بعدی به صورت خودکار انجام شود و وابستگی بین کارها رعایت شود. مثلا ابتدا یک دستور SQL بر روی دیتابیس اصلی اجرا شود، سپس نتیجه به CSV تبدیل شده و نهایتا در فایلسیستم هدوپ ذخیره شود.
برای تمامی نیازمندیهای بالا، نیاز به ابزاری داریم که بتواند طراحی خطوط پردازش داده آفلاین را انجام داده و کارهای زمانمند را مدیریت کند.


Airflow با هدف قرار دادن این نیازمندیها، امروزه به یک ابزار دم دستی و مهم در حوزه مهندسی داده تبدیل شده است. ساختار ساده و مقیاس پذیر در کنار استفاده از پایتون به عنوان ابزار اصلی تعریف و مدیریت کارها، دلیل اصلی محبوبیت این پروژه نسبتا جدید بنیاد آپاچی در این حوزه است . در این بخش از آموزش با یک مثال عملی ، مفاهیم زیر را بررسی خواهیم کرد:
- آشنایی با معماری و محیط Airflow و مفاهیم پایه آن
- بررسی اپراتورها یا عملگرهای اصلی قابل استفاده برای تعریف یک جریان کار
- استفاده از متغیرها و کانکشنها در تعریف جریان کارهای مقیاسپذیر
- نوشتن یک پلاگین و هوک ساده برای الاستیک سرچ
- بررسی موتورهای اجرایی Airflow
- ساخت جریانهای کاری پیچیده و شرطی
۷- Apache Nifi
یکی دیگر از ابزارهای دم دستی و موردنیاز یک مهندس داده،ابزارهای ETL یا انتقال و تزریق داده است. اینکه بتواند دادهها را از منابع مختلف خوانده، پردازشها و تغییر شکل اولیه را روی آنها انجام داده و نهایتا آنها را به مقاصد مختلف، هدایت کند. این نوع ابزارها که به آنها مدیر جریان داده (Data Flow Manager) هم میگوییم، به مهندس داده کمک میکنند تا بدون نیاز به برنامهنویسی، چرخه دریافت، تغییر شکل و انتقال داده (ETL) را مدیریت کند.
نایفای ابزار گرافیکی بنیاد آپاچی برای این منظور است . یعنی به کمک آپاچی نایفای، انواع دادهها را از منابع مختلف خوانده، آنها را بسته به نیاز، تغییر داده و نهایتا به مقاصد مورد نیاز ارسال می کنیم. علاوه بر اینها، به ازای تک تک دادههایی که در این مسیر حرکت میکنند، میتوانیم منشاء پیدایش و تغییرات صورت گرفته بر روی آنرا به صورت مرحله به مرحله رصد نماییم.


در این بخش از آموزش مهندسی داده، با استفاده از یک مثال عملی مفاهیم زیر را با جزییات کامل بررسی خواهیم کرد:
- آشنایی با اجزای یک خط پردازش داده
- بررسی روند اجرای یک فرآیند ETL (Data Provenance, Data Flow, Attributes,Queues)
- آشنایی با پروسسورهای اصلی در طراحی جریان داده (هر پروسسور یک مرحله از جریان کار است)
- طراحی یک ETL به صورت عملی .
- طراحی یک پروسسور
از آنجا که در این بخش، نیاز به ذخیره دادهها در کاساندرا، الاستیک سرچ و کافکا داریم، بخش پایانی آموزش نایفای، بعد از بررسی و مرور دیتابیسهای NoSQL ادامه خواهد یافت.
۸- بانکهای اطلاعاتی غیررابطهای
بانکهای اطلاعاتی NoSQL معمولا برای پاسخ به یک نیاز خاص طراحی شده و در کنار بانکهای اطلاعاتی رابطهای کلاسیک، به کار میروند. باتوجه به اینکه یک مهندس داده باید اشراف مناسبی بر این نوع بانکهای اطلاعاتی و نقاط ضعف و قوت آنها داشته باشد، در این بخش به بیان اصول کلی بانکهای اطلاعاتی غیررابطهای و موارد کاربرد هر یک و نهایتا بررسی عملی سه دیتابیس مهم در این حوزه یعنی کاساندرا، الاستیک سرچ و ردیس خواهیم پرداخت.
نکته مهم در خصوص بانکهای اطلاعاتی غیررابطهای، استفاده درست از آنها در طراحی سامانههای مقیاسپذیر پردازش داده است. امری که به طور خاص در این دوره درباره آن با ذکر مثالهای مختلف عملی و تجربیات کاری، صحبت خواهیم کرد.
در این بخش، محورهای زیر مورد بررسی قرار خواهند گرفت:
- آشنایی با انواع بانکهای اطلاعاتی و کاربردها و نقاط ضعف و قوت هر یک
- بررسی مدل دادهای کاساندرا و کار عملی با آن
-
- نصب و راهاندازی کاساندرا و آشنایی با معماری آن
- طراحی جداول کاساندرا بر اساس کوئری مورد نیاز و بررسی نقش انواع کلیدها
- بررسی خط فرمان کاساندرا
- اتصال نایفای به کاساندرا و بررسی دادهها و کوئری گرفتن از دادههای جریانی
- بررسی Materialized View
- آشنایی با الاستیک سرچ از طریق بررسی یک مثال عملی
-
- معرفی پشته ELK
- نصب و راهاندازی الاستیک سرچ
- آشنایی با ایندکسها
- بررسی انواع اندپوینتها در الاستیک سرچ.
- درج، حذف و به روز رسانی یک رکورد .
- بررسی زبان کوئری الاستیک سرچ
- اتصال نایفای به الاستیک سرچ
- بررسی امکانات مختلف کیبانا با دادههای واقعی


- آشنایی با ردیس و امکانات مختلف آن
ردیس به یک ابزار دم دستی و بسیار مفید در تمامی سیستم های اطلاعاتی تبدیل شده است . دراین بخش از آموزش، به صورت عملی با این دیتابیس مقیم در حافظه محبوب آشنا خواهیم شد و یک سامانه آماری مقیم در حافظه برای مثال عملی بیان شده در نایفای، طراحی خواهیم کرد.


- نصب و راهاندازی ردیس
- بررسی دستورات پایه
- ابزارهای مانیتورینگ ردیس.
- بررسی انواع ساختمان دادههای مقیم در حافظه ردیس
- طراحی یک سامانه آماری لحظهای
۹- کافکا
جزیرههای مختلف پردازشی که هر یک کارکرد خاصی در سامانه اطلاعاتی ما دارند، نیاز به ابزاری دارند که بین همه آنها مشترک بوده و بتوانند دادههای لازم را بر بستر آن، به اشتراک بگذارند. نقشی که امروزه مهمترین ایفا کننده آن در سیستمهای واقعی ،کافکا است. کافکا به عنوان یک صف توزیع شده، بستری مطمئن و مقیاسپذیر برای انواع سیستمهای ناهمگون فراهم میکند و به کمک آن، اشتراک اطلاعات بین سامانه مختلف از طریق یک باس مشترک و بدون نیاز به ارتباط مستقیم بین دو سامانه، صورت میگیرد. امری که برای سامانههای اطلاعاتی امروزی که ممکن است تغییرات فناوری ها و ابزار در آنها زیاد باشد، یک نیاز حیاتی است.


به کمک یک مثال عملی، مفاهیم زیر را با هم بررسی خواهیم کرد:
- آشنایی با معماری و اجزای اصلی کافکا در یک کلاستر .
- بررسی مفاهیم پایه پایه کافکا از طریق نوشتن یک تولیدکننده / مصرف کننده با پایتون
- ابزارهای مانیتورینگ و خط فرمان کافکا
- مدیریت نودها در کلاستر و مدیریت آفست ها
- تعریف کاربران و سطح دسترسی ها
۱۰- چارچوب پردازشی اسپارک
بسیاری از اوقات نیاز به پردازش خاصی بر روی دادهها داریم. چه داده هایی که به شکل خام و به متنی ذخیره شدهاند، چه دادههایی که در دیتابیس هستند و یا دادههایی که به صورت لحظهای دریافت می شوند.
فرض کنید نیاز داریم آماری را برای ده سال گذشته از دادههای csv استخراج کنیم و یا در بین تمامی رکوردهای موجود در دیتابیس، یک مدل یادگیری ماشین را اعمال کرده، افراد یا رکوردهای خاصی را بیابیم و یا به ازای توئیتهایی که در لحظه دریافت میکنیم، تحلیل احساسی آنها را هم در کنار سایر اطلاعات توئیت براساس روشهای پردازش متن، مشخص کرده و نهایتاً ذخیره کنیم. این کارها، نیازمند یک چارچوب پردازشی مقیاس پذیر است که بتواند هم بر روی دادههای جریانی و هم دادههای آفلاین آن هم به صورت مقیاسپذیر و قابل توزیع در شبکه، اعمال شود. وظیفهای که امروزه به صورت کلاسیک و رایج بر عهده اسپارک است.
اسپارک یک چارچوب پردازش داده است یعنی ابزار و امکاناتی در اختیار ما می گذارد که بتوانیم دادهها را با هر شکل و هر حجمی پردازش کنیم.


- آشنایی با اجزای اصلی اسپارک و معماری آن در یک کلاستر.
- نصب و راه اندازی اسپارک
- مفاهیم پایه اسپارک (Context, Driver, RDD, Actions, Transforms, Executers, Jobs)
- بررسی دستورات پایه اسپارک
- کار با SparkSQL
- بررسی ابزارهای مانیتورینگ و مدیریت جابها
- بررسی دیتافریمها در پردازش دادهها
- آشنایی با مفاهیم پردازش جریان
- انجام یک مثال عملی با Spark Structured Streaming


۱۱- دیتابیسهای تحلیلی نوین (مفاهیم پایه/ملاحظات طراحی / کار با کلیکهوس/ کار عملی با آپاچی دروید
با زیاد شدن حجم داده های موجود در بانکهای اطلاعاتی رابطهای، کوئری های سنگین تحلیلی به راحتی و با سرعت مناسب، پاسخ داده نمیشوند. مشکلی در راهکارهای سنتی با استفاده از انبارههای داده در کنار بانکاطلاعاتی اصلی سامانه پاسخ داده میشد اما با تغییر نوع نیازمندی در این حوزه که امکان طراحی هر گونه پرسوجو و استفاده از تمامی دادهها بخصوص دادههای لحظات اخیر، نوع جدیدی از دیتابیسها، پا به عرصه وجود گذاشتند که به طور خاص، برای تحلیلگران داده آنهم در حجمهای بسیار بالا، طراحی شدهاند.
در این بخش ، با دو دیتابیس اصلی این حوزه که در شرکتهای بزرگ ایرانی هم در حال استفاده هستند، کار خواهیم کرد و علاوه بر بیان مفاهیم پایه مورد نیاز برای انتخاب این نوع دیتابیسها، به انجام یک مثال عملی بر روی حجم بالای داده هم خواهیم پرداخت.


- بررسی نیازمندیهای جدید حوزه تحلیل داده
- نصب و راه اندازی کلیک هوس، ایمپورت داده و کوئری های مختلف ، آشنایی با انواع ایندکسها و ملاحظات طراحی جداول تحلیلی
- نصب و راهاندازی آپاچی دروید، بررسی کنترل پنل و نحوه ایمپورت دادهها در آن، آشنایی با معماری و ملاحظات طراحی جداول
۱۲- ابزارهای مانیتورینگ و مدیریت لاگ (Grafana/Fluentd / Prometheus)
به عنوان آخرین گام در دوره مبانی مهندسی داده، با نحوه جمع آوری اطلاعات و آمار سامانههای مختلف برای مقاصد نگهداشت و پایش لحظهای آشنا خواهیم شد و نقش دیتابیس تایم سری پرومتئوس، ابزار فلوئنتدی و نرم افزار بسیار کاربردی داشبورد ساز گرافانا را در سامانههای اطلاعاتی امروزی بررسی کرده، یک داشبورد حرفهای مانیتورینگ بر روی مثال عملی اصلی این پروژه ایجاد خواهیم کرد.
کلیه مباحث فوق با طراحی یک سامانه جامع ذخیره و پردازش توئیتهای فارسی مرتبط با بورس و اطلاعات روزانه سازمان بورس در قالب یک پروژه جامع، آموزش داده خواهد شد.
نکته : هر چند تمامی مثالها و نرمافزارها با داکر کار خواهند شد اما در ابتدای هر مبحث، نحوه نصب و پیکربندی نرمافزارها به صورت لوکال هم آموزش داده خواهد شد.
مدرس این دوره چه کسی است؟
مجتبی بنائی [مشاوره، مدرس و متخصص مهندسی داده]
دانشجوی دکترای نرمافزار دانشگاه تهران، مدرس دانشگاه و فعال در حوزه مهندسی نرمافزار و علم داده که تمرکز کاری خود را در چند سال اخیر بر روی مطالعه و تحقیق در حوزه کلانداده و تولید محتوای تخصصی و کاربردی به زبان فارسی و انتشار آنها در سایت مهندسی داده گذاشته است. مدیریت پروژههای نرمافزاری و طراحی سامانههای مقیاسپذیر اطلاعاتی از دیگر فعالیتهای صورت گرفته ایشان در چند سال گذشته است.
مدرس دورههای BigDataی نیک آموز
دانشجوی دکترای نرم افزار و مدرس دانشگاه تهران
مجری و مشاور پروژههای کلانداده در سطح ملی و بین المللی
فعال در حوزه تولید محتوای تخصصی در زمینه پردازش داده


با ثبت نام در این دوره چه چیزهایی به دست میآورید
اگر خارج از تهران هستید یا پُرمشغله هستید چرا در دوره غیرحضوری شرکت نمیکنید!؟
اگر خارج از تهران هستید، اگر پُرمشغله هستید: بصورت غیرحضوری ثبت نام کنید، کلاس را زنده ببینید و فیلم با کیفیت فوق حرفهای به همراه جزوات کاملا رنگی و دستورالعمل اجرا دریافت کنید.
پیش نیازهای دوره
برای اینکه بتوانید از این دوره به نحو مطلوب استفاده کنید حتما بایستی با مبانی SQL و کوئری نویسی آشنایی کافی داشته باشید.
دوره در یک نگاه کلی
عنوان دوره: دوره آموزشی غیرحضوری مبانی مهندسی داده
مخاطبین: افرادی که تسلط کافی به یک زبان برنامهنویسی و آشنایی مناسب با بانکهای اطلاعاتی رابطهای و غیررابطهای و مباحث انبارش دادهها (Data Warehousing) را دارند.
پیش نیازهای دوره: مبانی SQL و کوئری نویسی و حداقل دو سال سابقه برنامه نویسی
طول دوره: ۶۶ ساعت – ۲۲ جلسه ۳ ساعته
تاریخ شروع دوره: این دوره درحال ضبط است و در صورت خرید فایلهای آن به پنل کاربری شما اضافه خواهد شد.
نحوه ارائه: دانلودی و غیرحضوری
پشتیبانی: دارای گروه تلگرامی اختصاصی است
مدرس: دکتر مجتبی بنائی
مبلغ غیرحضوری: ۱.۳۰۰.۰۰۰ تومان
مبلغ دوره
شرایط غیرحضوری:
محتوای غیرحضوری: ۲۲ جلسه ۳ ساعته در مجموع ۶۶ ساعت آموزش تصویری (فیلم)، صوت دوره، تمرینها، PDF جزوات، دانلود از طریق ایمیل
مبلغ سرمایه گذاری غیرحضوری: یک میلیون و سییصد هزار تومان
آیا مبلغ دوره مناسب است!؟
به نظر من مبلغ دوره بسیار، بسیار ارزان و مناسب است، این دوره دارای تمرین و سناریوهای کاملا اختصاصی است که البته مدرس از تجربیات ارزشمند خود در کل دوره خواهد گفت که میتوانید از آن استفاده نمایید. همچنین شما پشتیبانی یک گروه اختصاصی تلگرامی را نیز خواهید داشت.
گارانتی برگشت ۲ برابری پول
شما با شرکت در این دوره هیچ چیزی را از دست نخواهید داد، چون این دوره دارای گارانتی ۲ برابری برگشت پول است.
پاسخ به سوالات متداول درباره این دوره آموزشی
1- روی دکمه خرید (حضوری یا غیرحضوری) کلیک کنید تا به سبد خرید هدایت شوید.
2- مراحل خرید اعم از لاگین، تکمیل اطلاعات و پرداخت اینترنتی را انجام دهید.
3- در انتها و بعد از پرداخت به قسمت مشخصات سفارش خود هدایت خواهید شد.
4- تبریک میگوییم شما در لیست خریداران این دوره قرار گرفتهاید بعد از 5 دقیقه ایمیل خود را بررسی کنید.
دوره به صورت آنلاین و وبیناری برگزار خواهد شد.
به زودی اعلام می شود.
واقعیت این است که یک تیم پرتلاش با مدرسین واقعا حرفهای بصورت شبانهروزی فعالیت میکنند تا بتوانند دورههای آموزشی در سطح بسیار بالایی تولید کنند.
لطفا و خواهشا کپی نکنید و موارد زیر را مدنظر داشته باشید:
- در نیک آموز بر روی مطالب آموزشی و دورهها قفل گذاشته نمیشود تا شما دوست عزیز بدون دردسر بتوانید مطالب آموزشی را در هر دستگاهی تماشا نمایید.
- محتوای خریداری شده را میتوانید با بستگان درجه یک (همسر، پدر،مادر،خواهر،برادر) به اشتراک بگذارید.
- ما از کپی محتوای آموزشی نیک آموز تحت هیچ شرایطی رضایت نداریم. این مورد شرعا حرام و موارد مشاهده شده پیگرد قانونی خواهد داشت همان طور که شما تمایل ندارید برنامه شما کپی شود مجموعه نیک آموز هم از کپی دورهها کاملا ناراضی است.
- محتوا را میتوانید توسط تیم خودتان و داخل شرکت خودتان تماشا کنید ولی اگر محتوا را به بیرون از شرکت انتقال دهید ما کاملا از این موضوع ناراضی هستیم.
- خواهشمندیم به موارد مطرح شده پایبند بوده زیرا تمامی محتواهای آموزشی نیک آموز در سازمان وزارت ارشاد بصورت قانونی ثبت شده است و موارد مشاهده شده پیگرد قانونی خواهد داشت.
دوره دارای پشتیبانی VIP تلگرامی است. بعد از خرید و شرکت در دوره حتما و حتما نسبت به آرشیو فایلها و مستندات دوره اقدام نمایید. در ارتباط با دسترسی به آرشیو دوره و موارد بروز رسانی و دریافت مستندات شرکت نیک آموز فقط ۶ ماه دارای خدمات پس از فروش میباشد.
افشین عباسپور – :
دمتون گرم … چه دوره خوبی
مهدی خدادادی (خریدار محصول) – :
سلام
لطفاً بفرمایید دوره کی شروع میشه؟
تیم فنی نیک آموز – :
درود بر شما
دوره به صورت دانلودی است و درحال ضبط است از اواسط دی ماه هر هفته یک درس به پنل کاربری خریداران دوره اضافه خواهد شد و اطلاع رسانی می گردد.
سپاس از همراهی شما