Python/データエンジニアの案件・求人

単価

110 ~ 130万円/月額想定年収:1320 ~ 1560万円

fmd_good
勤務地

work_outline職務内容

ビッグデータや生成AIを活用した事業を展開する東大発のスタートアップで大手企業を中心に データ利活用やDXを支援する企業です。 クレジットカードデータやPOSデータ、位置情報データといった様々なオルタナティブデータを活用した 企業の意思決定をサポートする事業やデータ基盤構築支援や生成AI開発を通じ、 世の中の意思決定を円滑にする事業を展開しております。 ・POSデータやクレカデータを用いた機関投資家向けの分析サービス ・JCBカードの決済データを用いた業界別消費動向指標 ・日経POSデータを用いた日次物価指数 ・HRogの求人広告データを用いた募集賃金指数、求人数指数 ・商業不動産を対象にデータ活用、DXを支援するサービス ・データと生成AIを軸に企業のDX推進を支援するソリューションサービス ■業務の概要 データエンジニアとして、様々なデータ関連の業務に関わっていただきます。 データ基盤の構築、データ分析、SaaSの開発、生成AI関連開発など、ご志向やご経験に合わせて 幅広い業務に挑戦することができます。 ※社内の配属先はご経験やご希望を踏まえた上でご本人様とご相談しながら決定いたします 【具体的な業務内容】 ・データ基盤の設計、構築、テスト、開発、保守、運用 ・自社SaaS分析サービスのデータパイプラインの設計、構築、運用 ・生成AI導入における顧客支援 ■ポジションの魅力 ・Snowflake, dbtなどモダンな技術スタックを活用した開発を経験することができる ・データ分析、生成AI、WEB開発、インフラ構築など、データエンジニアリング以外の技術領域にも挑戦できる ・データの収集、分析基盤構築、クレンジング、エンリッチメント、アプリケーション開発などのプロダクト開発のプロセスを一気通貫で担当することができる。 ・PdM、テックリード、VPoE、アナリティクスエンジニア、事業責任者など、データエンジニアにも幅広いキャリアパスが用意されている。 ・クライアントワークでは様々な業界の顧客のデータ基盤について、設計から実装まで関わることができる Python

done_all必須スキル

・Pythonでの開発経験:3年以上 ・DWHの利用経験(Snowflake, BigQuery, Redshift, Databricks等) ・SQLを用いたデータ加工、変換処理の実務経験 ・ETL/ELTパイプライン構築経験(ツール不問) ・データ基盤の基本構造に対する理解(3層構造:Source / Lake / DWH / Mart) ・IaCツール(Terraform, CloudFormation等)の利用経験 ・Git等を利用したチーム開発経験 ・自走力(与えられた要件を自ら整理し、実装まで行える)

check尚可スキル

・dbt の実務経験(モデル設計、テスト、ドキュメント作成 等) ・Terraform による Snowflake / AWS リソース管理経験 ・AWSサービスの実務経験 ・スキーマ設計、権限管理の実装経験 ・BIツール(PowerBI、Tableau等)によるダッシュボード構築経験

schedule

稼働時間

140~180時間
groups_2

商談回数

その他 / オンライン
train

最寄駅

calendar_month

支払サイト

翌月25日支払い

support_agent担当エージェントの言葉

案件の特徴:安定稼働,最新技術,長期プロジェクト,高単価,小規模,BtoB,ベテラン歓迎

情報提供元: ギークスジョブ(GEECHS JOB)

2ヶ月前