تجزیه و تحلیل دادهها و مصورسازی آنها
تدوین و عملیاتی کردن نقشه راه حاکمیت داده
طراحی و پیادهسازی زیرساخت کلان داده
تحلیل، طراحی، تولید و استقرار سامانهها و نرمافزارهای مبتنی بر داده و هوش مصنوعی
خدمات مشاوره و آموزش و تحقیق و توسعه طرحهای مبتنی بر داده و هوش مصنوعی
شرکت داده و اعتبارسنجی تجارت ایرانیان (داتا) در سال 1402 و بنا بر ضرورت توجه به مبحث مدیریت و حاکمیت داده و هوش مصنوعی، با هدف توسعه زیرساختها، تجزیه و تحلیل و مدیریت کلان دادهها و ارائه خدمات هوش مصنوعی تاسیس شد.
این شرکت به پشتوانه نیروی جوان، خلاق و متخصص خود در حوز ههایی چون دادهکاوی، امنیت داده، مدیریت داده، زیرساخت داده و هوش مصنوعی به ارائه خدمات و تولید محصول با استفاده از آخرین فناوریها میپردازد.
شرح شغل و وظایف شرایط احراز: آشنایی عملی با ابزارها و تکنولوژیهای بیگ دیتا مانند: Hadoop / Spark / Kafka / Airflow / Hive / Flink آشنایی کامل با مفاهیم و ابزارهای Data Engineering و جریان داده (Data Pipeline) تجربه کار با زیرساختهای مبتنی بر Docker و Kubernetes برای استقرار سرویسها درک کافی از معماری سیستمهای Cloud-native و Microservices آشنایی مناسب با دیتابیس Oracle و سایر پایگاه دادههای رابطهای و مباحث بهینهسازی کوئریها درک کافی از مفاهیم ETL/ELT، Data Warehouse، DataLake و Data Mart تجربه در استقرار مدلهای یادگیری ماشین بهصورت API با استفاده از ابزارهایی مانند Flask یا FastAPI و یا سایر چارچوبهای مشابه توانایی طراحی و مدیریت محیطهای توسعه اشتراکی برای تحلیلگران مانند JupyterHub، VSCode Server و یا Remote Containers آشنایی با مفاهیم شبکه، توپولوژی و پروتکلهای ارتباطی بین سرورهای فیزیکی و مجازی در معماریهای توزیعشده تسلط نسبی بر اصول امنیت زیرساخت، شامل هاردنینگ سرورها، کنترل دسترسی و مدیریت پورتها و سرویسها. درک پایهای از مفاهیم امنیت داده، ذخیرهسازی توزیعشده، پردازش دادههای کلان. مهارت در مستندسازی، گزارشدهی و تهیه مدارک فنی و مدیریتی. مهارتهای ارتباطی قوی برای تعامل با واحدهای مختلف سازمان و پیمانکاران. شرح وظایف: برنامهریزی، مدیریت و نظارت بر اجرای پروژههای استقرار، نگهداری و مانیتورینگ زیرساخت بیگ دیتا برقرای ارتباط موثر با کارفرما و ذینفعان پروژه برقراری ارتباط موثر با تیمهای فنی داخلی (مهندسین داده، تحلیلگران، تیم زیرساخت) مدیریت تعاملات با شرکتهای پیمانکار، بررسی تحویلها و ارزیابی کیفیت خدمات آنها. پایش پیشرفت پروژه و ارائه گزارشهای دورهای به ذینفعان شناسایی و کاهش ریسکهای پروژه نظارت بر انطباق پروژه با استانداردهای امنیتی، کیفیت و مقررات سازمانی نظارت بر طراحی زیرساخت معماری دادهها شامل لایههای ETL/ ELT و معماری API های داده محور ایجاد محیطهای امن، منعطف و مقیاسپذیر برای توسعه مدل توسط تحلیلگران و دانشمندان داده مانند JupyterHub و VSCode Server و یا Containerهای اختصاصی. استقرار و پایش عملکرد مدلها پس از استقرار (Model Monitoring) و مدیریت نسخهها