

ما در آناکاو، یک شرکت نوآور و پیشرو در حوزه توسعه محصولات دادهمحور و کلان داده هستیم. مأموریت ما، استخراج بینشهای عمیق و ارزشآفرین از مجموعه دادههای حجیم (Big Data) است تا مزیت رقابتی بینظیری برای محصولاتمان خلق کنیم. اگر به دنبال محیطی هستید که چالشهای پیچیده مدلسازی، مقیاسپذیری و کار با دیتاستهای عظیم، هیجان شما را برانگیزد، جای شما در تیم قدرتمند علم داده ما خالی است.
شرح موقعیت شغلی: معمار دادههای بزرگ
شما به عنوان متخصص علم داده (Data Scientist) در حوزه Big Data، نقشی حیاتی در چرخه عمر محصول ایفا خواهید کرد. مسئولیت اصلی شما فراتر از تحلیل صرف، شامل طراحی، پیادهسازی و استقرار مدلهای Machine Learning و Deep Learning در مقیاس صنعتی و ساخت Data Pipelineهای مقاوم و مقیاسپذیر برای پردازش کلان دادهها خواهد بود. خروجی کار شما، بینشها و مدلهای عملیاتی هستند که مستقیماً تصمیمات استراتژیک محصول، بازاریابی و مدیریت ارشد را هدایت میکنند.
مسئولیتهای کلیدی
* مهندسی کلان داده: کار عملیاتی با دیتاستهای حجیم و پیادهسازی معماریهای دادهای کارآمد (Data Architecture).
* طراحی و استقرار مدل: تحقیق، طراحی، پیادهسازی و استقرار (Deployment) مدلهای پیشرفته ML/DL (طبقهبندی، رگرسیون، خوشهبندی، سریهای زمانی و...) در محیط Production-Level.
* پایپلاین داده (ETL/ELT): ساخت، بهینهسازی و نظارت بر Data Pipelineها برای تضمین کیفیت، پاکسازی و آمادسازی دادهها در مقیاس بزرگ.
* ارزیابی و MLOps: نظارت مستمر، ارزیابی دورهای و بهبود عملکرد مدلهای مستقر شده (Model Monitoring & Retraining).
* همکاریهای متقابل: ارائه گزارشهای واضح، داشبوردها و بینشهای عملیاتی به ذینفعان (تیمهای مهندسی نرمافزار، محصول و مارکتینگ).
* استخراج KPI: تحلیل عمیق دادهها برای استخراج شاخصهای کلیدی عملکرد (KPIs) و اهرمهای رشد کاربردی.
مهارتها و تواناییهای مورد نیاز (Hard Skills)
* تسلط قوی بر Python: و کتابخانههای بنیادین علم داده:
* Pandas, NumPy, Scikit-learn
* TensorFlow یا PyTorch (تجربه عملی در پیادهسازی مدلهای DL امتیاز محسوب میشود)
* تسلط بر SQL: و تجربه عملیاتی قوی با پایگاههای داده رابطهای و NoSQL.
* تحلیل دادههای حجیم: توانایی کار با حجم عظیمی از داده و درک چالشهای مقیاسپذیری.
* آمار و مدلسازی: درک عمیق از مفاهیم آمار، احتمال، تست فرضیه و Feature Engineering.
* مهندسی مدل: تجربه در طراحی و اعتبارسنجی طیف متنوعی از مدلهای Machine Learning.
* ابزارهای توسعه: آشنایی با ابزارهای ورژن کنترل مانند Git.
امتیازات برجسته (Nice to Have)
* تجربه کلان داده (Big Data Ecosystem): تجربه عملی کار با فریمورکهای پردازش توزیعشده مانند Apache Spark، Hadoop، Hive یا Flink.
* مهندسی دِواپس (DevOps): آشنایی یا تجربه با ابزارهای کانتینری مانند Docker و Kubernetes برای Deployment و MLOps.
* تجربه صنعتی: سابقه کار در پروژههای Production-Level و مدلهایی که در محیط واقعی کسبوکار مستقر شدهاند.
* تجسمسازی داده: تجربه ساخت داشبورد و گزارشهای تعاملی با ابزارهایی مانند Power BI، Tableau یا Metabase.
* آشنایی با پلتفرمهای ابری (AWS/Azure/GCP) و سرویسهای دادهای آنها.
مزایای پیوستن به آناکاو
* حقوق و مزایای رقابتی: متناسب با مهارت و تجربه شما.
* چالشهای بزرگ: مشارکت در پروژههای Big Data و دادهمحور با مقیاس بالا و تأثیرگذار.
* رشد حرفهای: محیط یادگیری مستمر، دسترسی به منابع و امکان آموزش تخصصی.
* فرهنگ تیمی: محیط کاری حرفهای، دوستانه، باثبات و حامی نوآوری.
اگر آماده خلق ارزش هستید ...
ما مشتاقیم رزومهی شما را بررسی کنیم و با شما درباره نقش کلیدیتان در تیم علم داده آناکاو گفتگو کنیم.
ثبت مشکل و تخلف آگهی
ارسال رزومه برای شرکت کلان داده پویان نوین