90 ~ 120万円/月額想定年収:1080 ~ 1440万円
■プロジェクト概要 独自のデータプラットフォームを提供するクライアントと弊社グループ会社がラボ的に共同でチームを組んでエンドクライアント向けに行う開発支援にデータエンジニアとして携わっていただきます。 データエンジニアは、データサイエンティストや他のエンジニアと協力しながら、データ基盤を構築・改善して課題解決を行っていく役割です。 データ活用を推進する企業の挑戦に伴走するプロフェッショナルという看板を掲げるクライアントで、弊社グループがこれまで3年にわたってい支援をしています。 現在、この商流で2社のエンドクライアント向けのPJが動いており、開発拠点の弊社グループのベトナムチームも今夏10名近く増員予定です。 今後も弊社グループとクライアントの二人三脚体制が更に拡大する見込みです。 現状、クライアントとのチームリーダーが多忙でコードレビューがネックでスケールできていません。 その一方、嬉しい悲鳴で仕事は順調に取れているので、弊社グループからチームリーダー人材を入れて、ベトナムのラボチームが動けるようにディレクションを行っていく方針です。 ■業務内容 主な業務内容は以下の通りで、データ基盤構築絡みの開発案件のディレクションです。 - 位置情報検索エンジンの 1 カーナビ向けAPI構築と、検索精度向上のためのデータソース取り込みのパイプライン構築 2 LLM(大規模言語モデル。 Large Language Models)向けAPI構築と、検索精度向上のためのデータソース取り込みのパイプライン構築 ■技術スタック - メイン:SQL(MySQL, dbt, dagster) - サブ:Python、Snowflake、AWS
・要件定義、基本設計から一人称での経験5年以上 ・データベース、データウェアハウス(DWH)を使ったデータ基盤の開発経験 ・SQLのデータ移行処理やパフォーマンスチューニングの経験5年以上 ・AWSやGCP、Azureなどのクラウドにおける開発経験 ・コードレビュー経験 ・アジャイルな手法を用いたチーム開発の経験 ・メンバーの進捗管理やマネジメントの経験 ・平日週5フルタイムで参画できること
・dbt coreの設計・開発経験 ・Snowflakeでのデータベースの設計・構築経験 ・データ処理パイプラインの開発経験 ・Apache Hadoop、Sparkなどの分散データ処理の開発経験 ・大規模データ処理の開発経験 ・Apache Airflowなどのワークフロー管理フレームワークを用いた、データ処理パイプラインの開発経験 ・Apache Sparkなどの分散処理フレームワークを用いたデータ処理の開発経験 ・Kubernetesなどのコンテナ関連技術を用いたシステムの開発経験 ・検索やレコメンド、ターゲティング広告など、データがコアであるシステムのバックエンド開発経験 ・Apache Kafkaなどのメッセージキューを用いた開発経験 ・機械学習のモデルの作成と運用経験 ・WebスクレイピングなどのWebから情報を収集するシステムの開発経験
稼働時間
契約形態
商談回数
支払サイト
50日(月末締め翌々月20日、最大35日まで調整可能)
・数ある大手企業向けにデータ戦略立案からデータ基盤の構築並びにシステム構築・導入支援、活用・活性化支援を通じて関わることが出来る現場です。 ・データ基盤周りで食っていきたい人、自信がある人には長期で楽しめる現場です。 ・初日からリモートOK,地方在住でもOKです。 ・PC貸出(持込も可能、もしくは貸与準備ができるまで持込を依頼する可能性あり) ・外国籍不可、50代以上の方のエントリーはご遠慮ください。
情報提供元: GEEK JOB フリーランス(ギークジョブ フリーランス)
1年以上前

SNSアカウントでログイン