【Lakehouse】データエンジニア・データサイエンティスト【経験者/フルリモート】
株式会社エーピーコミュニケーションズ ・ 東京都 千代田区
年俸 6,000,000〜10,000,000円正社員フルリモート/完全在宅
部署について
仕事内容
部署について
募集部門について
当求人はGlobal Data+AI事業部 Lakehouse部の求人となります。
<Global Data+AI事業部>
グローバルSI案件における提案・PMを中心に手がけるグローバルエンジニアリング部と、
データ&AI分析基盤の構築や内製化の支援を行うLakehouse部で構成される事業部です。ITインフラ、データAI基盤、Webアプリ開発や運用まで一気通貫してサポートできることを強みとしています。
<グローバルエンジニアリング部>
「技術力」と「英語力」の両方が備わったグローバルエンジニアとしてのキャリアに挑戦出来る環境です。部内の公用語を英語で、社内ミーティングも英語で行っています。
<Lakehouse部>
インフラエンジニア、データエンジニア、データサイエンティスト、MLエンジニアと色々な強みを持ったメンバー多数。外国籍の方や女性が多いのが特徴です。
①カルチャー
・設立4年目の比較的若い組織で、フラットな文化
・一人ひとりが自立しつつ、互いにリスペクトを持ち支え合うことを大切にしています
・インプット&アウトプット文化があり、技術ブログ執筆や国内外イベント参加も行っています
②業務環境
・Databricks、Microsoftとパートナー契約を締結しており、学習&検証環境が充実
・メンバーのバックグラウンドを活かし、多様な視点から意見を出し、品質を高めています
③ワークライフバランス
・管理者含め育児をしながら働くメンバーもおり、ワークライフバランスへの理解が高い職場です
・平時は原則リモートワークとなるため、居住地域にとらわれず働くことができます
・Slackチャンネルの活用など、心理的安全性を意識した環境です
<募集部門の紹介>
・Lakehouse部部長 市村からのメッセージ
https://www.ap-com.co.jp/blog/archives/10351#article(https://www.ap-com.co.jp/blog/archives/10351#article)
・Lakehouse部 サービスページ
https://www.ap-com.co.jp/service/data_ai/(https://www.ap-com.co.jp/service/data_ai/)
・Databricks Data+AI Summit 2025 現地レポート
https://www.ap-com.co.jp/data_ai_summit/(https://www.ap-com.co.jp/data_ai_summit/)
募集背景
データ収集がメインタスクになりAI戦略まで進まない等、国内でデータ&AIを活用している事例はまだ少ないと感じております。
当社は日本市場のデータ&AI文化を根本から変えたく、ビッグデータを使用したAIによる分析やデータ利活用等、データマネジメントを推進するために事業を一緒に推進いただける方を募集しております。
業務内容
Lakehouse部では、クラウド上でデータの格納・処理・分析・機械学習まで一気通貫で扱える Lakehouse プラットフォームであるDatabricksを活用し、お客様にデータ&AIを活用いただけるよう、データやインフラ基盤の構築や内製化支援をしています。
本求人で採用する方には、当部のデータエンジニア、データサイエンティストとしてのご活躍をお願いします。
採用後は、入社研修の後、下記の業務をお任せいたします。
・データ基盤環境(データレイク・DWH)の設計、構築
・各種データの収集、クレンジング、統合、最適化
・ETL/ELTパイプラインの設計、実装(Python,Airflow, dbtなど)
・ビッグデータ処理基盤の設計、運用(Spark、Hadoopなど)
・BIツール(Tableau、Power BIなど)向けのデータマート構築
・ユーザートレーニング、内製化の支援
この仕事で得られること
大規模案件の提案経験
Databricks やMicrosoft など大手パートナー企業や大手顧客との商談に関与し、数千万規模の案件提案を経験できます。
データプラットフォーム領域での専門性
Databricks をはじめとしたクラウドデータ基盤の知見を身につけ、今後市場価値の高い人材として成長できます。
キャリアの幅の拡張
クラウドインフラ、データエンジニア・サイエンスに加え、AI領域など、プロジェクトを通じてキャリアの幅を広げていただく事が可能です。将来的には、リーダーやマネジメントポジションへのチャレンジも大歓迎です。
プロジェクト事例
製造業(自動車・ヘルスケア機器)や金融業、通信業界を中心に、Databricksを活用したデータ活用基盤の構築・生成AI導入プロジェクトが増加しています。
某製造系企業様:DatabricksとAWSを活用したストリーミング分析基盤の構築とCI/CD整備
某通信系企業様:社内技術文書の検索・要約AIアプリケーションの構築(RAG・OpenAI活用)
某金融系企業様:既存Oracle基盤からLakehouse環境への移行支援とデータパイプライン再構成
某化学メーカー様:AutoMLを用いた原材料価格の時系列予測モデルとダッシュボード実装
某家電メーカー様:TerraformによるDatabricks環境の再構築とコスト最適化PoC など
業務の進め方の例
案件開始~2週間
・データプラットフォームやプロダクト周辺のクラウド設計、構築(AzureやAWS)
・現状のデータの中身やフォーマットについてヒアリング
・Databricksを活用する計画について提案、データ内容や進め方に関する意見交換
1か月~2か月目
・データ利活用に向けた分析基盤のインフラ構築と整備(Databricks環境の構築等)
・データ利活用に向けたデータ整形とプロセスの整備
※最終的に「新規のデータが発生した際にお客様側でデータ追加・調整・再構成等が出来る状態」にするための整備
2か月~3か月目
・ダッシュボードの試作
・納品、仕様の説明や利活用についてお客様への説明
キャリアパス
エンジニアの学びたい技術や目指すキャリアに応じて業務をお任せします。
例:データ収集やデータ統合、仮説検証、モデル構築、データの可視化等々
役割や裁量についても柔軟にお任せしていきます。
以下は現在活躍中メンバーの実例の一部となります。
Aさん メンバー(1年)→PM(1年)→EM(現在)
Yさん メンバー(半年)→PL(現在)
Jさん メンバー(2年)→PM ※データ領域未経験スタート
開発環境
言語:Python,SQL,Q言語
インフラ:Microsoft Azure,AWS
データプラットフォーム:Databricks
可視化ツール:Tableau,PowerBI
ソースコード管理:GitHub
メンバー構成
2022年に新設されたばかりで、様々なバックグラウンドをもつ









