★ Dify ワークフロー自動生成 / OpenAI / Anthropic / ローカル LLM 対応

要件定義書から、
Dify ワークフローを生成。

AI ネイティブ時代のバッチ処理を、設計書を書くだけで実装。LLM が要件を解析し Dify の DAG ワークフローを自動構築。日次の集計・抽出・要約・分析パイプラインを、エンジニア不在でも運用に乗せられます。

14 日間無料 ・ クレジットカード不要 ・ Markdown / Word / PDF の要件定義書を読み込ませるだけ

AI ネイティブのバッチ処理基盤として採用

NOVA
KAIROS
PRISM
ATLAS
AURORA
PIVOT
SIGNAL
CASCADE
BEACON
ORBIT
STELLA
AXIOM
Why JET-FLOW

AI 時代のバッチ処理は、コードよりも仕様書から始まる。

従来のバッチ処理は SQL や Python の定型的な ETL でした。AI ネイティブ時代のバッチ処理は LLM / Vector DB / OCR / Web スクレイピングを組み合わせる新領域。JET-FLOW は、要件定義書を「実行可能なワークフロー」に変える専門 SaaS です。

01

仕様書からの自動構築

自然言語で書かれた要件 (Markdown / Word / PDF) を LLM が分解し、入力・処理ステップ・出力・スケジュール・エラーハンドリングを抽出して DAG に変換します。

02

Dify ベースの透明性

生成物は通常の Dify ワークフロー JSON。ブラックボックスになりません。GUI でそのまま編集・テスト・デプロイ可能で、ベンダーロックインを回避します。

03

AI ネイティブのバッチ処理

LLM 推論 / Vector 検索 / OCR / Web スクレイピング / 構造化抽出 を組み合わせた次世代バッチを、専門知識なしで構築・運用できます。

SOC 2 Type II 取得済 ・ Dify 公式パートナーOpenAI / Anthropic / Google / ローカル LLM 全対応
Features

要件定義 → Dify ワークフロー → スケジュール運用まで一気通貫。

入口 (仕様書) と出口 (運用) の間で起きる「設計→実装→検証→デプロイ→監視」のすべてを SaaS が肩代わりします。

01

要件定義書から DAG を自動生成

Markdown / Word / PDF / Notion で書かれた要件を読み込み、LLM が「入力データ → 処理 → 出力」の構造を抽出。Dify のノード (LLM / Code / HTTP / Tool / IF-ELSE / Loop) と接続を自動構築します。

  • 日本語要件 → 英語ノード名 / 変数名へ正規化
  • 抽象度の自動調整 (粒度の粗い要件は問い返し質問を生成)
  • 生成プロセスは差分表示 + ユーザー承認後に確定
生成エンジンの仕組み
02

Dify との完全互換 (Workflow JSON / DSL)

生成物は Dify 公式の Workflow YAML / JSON。Dify 側の GUI でそのまま開いて編集・テスト・実行できます。専用 GUI で囲い込みません。

  • Dify Self-Hosted / Cloud 双方をサポート
  • 既存ワークフローのインポート + 拡張も可能
  • YAML を Git バージョン管理する開発フロー対応
Dify 連携の詳細
03

スケジュール + イベント駆動実行

Cron / Webhook / S3 / GCS / SaaS の Webhook をトリガに、ワークフローを自動実行。失敗時の再実行・人間レビュー・監査ログまで一通り含みます。

  • Cron / Webhook / Event-bridge 連携
  • 指数バックオフによる自動再実行
  • 人間レビュー (Human-in-the-loop) ステップ
スケジューリングの詳細
04

50+ のデータソースと SaaS 連携

S3 / GCS / Box / Drive / SharePoint / Slack / kintone / Salesforce / Notion / Airtable / Google Sheets など主要なデータソース・SaaS と直結。要件定義書に書くだけで自動的に接続します。

  • ストレージ 10+ / メッセージング 5+ / CRM 5+
  • OAuth / API Key / IAM Role 等を自動構成
  • Custom Connector を Python / TypeScript で追加可能
連携先一覧
05

コスト・実行履歴・監査の可視化

各実行の LLM コスト / 実行時間 / 成功率をダッシュボードで集計。SOC 2 / ISO 27001 監査用のログ出力 + 改ざん防止 (WORM ログ) に対応。

  • LLM コストをモデル別 / ワークフロー別 / 顧客別に分解
  • 失敗パターンを学習して再生成提案
  • WORM ログ (S3 Object Lock) / 監査エクスポート
ダッシュボード例
How it works

3 ステップで、要件定義書がバッチ処理になる。

書く → 生成する → 動かす。設計と実装の境界線が消える体験を。

1

要件定義書を投入

Markdown / Word / PDF / Notion / Confluence などで書かれた要件をアップロードします。テンプレートも提供。

2

AI が DAG を設計

LLM が要件を意味的に分解し、Dify の DAG (ノード・接続・条件分岐) を自動生成。承認画面で差分を確認できます。

3

Dify ワークフローとして実行

生成物を Dify にデプロイし、テスト → 修正 → スケジュール登録 → 本番運用へ。実行ログ・コスト・成功率はダッシュボードで可視化。

Pricing

使う分だけ、シンプルな従量課金

ワークフロー数 + 月間実行数 + LLM コストパススルー。すべてのプランで 14 日間無料トライアル付き。

STARTER

個人 / 検証用

¥9,800 / 月 (税抜) ※ LLM 利用料別
  • ワークフロー 5 まで
  • 月間 1,000 実行
  • OpenAI / Anthropic / Google
  • スケジュール / Webhook
  • ローカル LLM / カスタム接続
  • 監査ログ / Human-in-the-loop
無料で試す

ENTERPRISE

大規模 / 統制重視

お問い合わせ ※ Self-Hosted / 専有テナント可
  • ワークフロー 無制限
  • 実行数 無制限
  • マネージド全 LLM + 顧客自社モデル
  • API / SDK / 専用 SLA
  • ローカル LLM / カスタム接続
  • WORM 監査ログ / SAML SSO / KMS
相談する
FAQ

よくある質問

要件定義書はどんなフォーマットで書けばいいですか?
Markdown が推奨です。Word (.docx) / PDF / Notion / Confluence からも取り込めます。JET-FLOW が提供する「要件定義テンプレート」(入力 / 処理 / 出力 / スケジュール / エラー処理 / 監査) を使うと、生成精度が大きく向上します。テンプレートはトライアル時に提供します。
Dify は別途用意が必要ですか?
STARTER / TEAM プランでは JET-FLOW がマネージドな Dify 環境を提供します。すでに Self-Hosted / Cloud の Dify をお使いの場合はそちらに直接デプロイできます。ENTERPRISE プランでは顧客の Dify 環境にも展開可能です。
LLM のコストはどうなりますか?
基本料金には LLM 利用料は含まれません (パススルー方式)。OpenAI / Anthropic / Google API 利用料はお客様の API キー or JET-FLOW 経由でのプリペイド請求 (mark-up なし) からお選びいただけます。コストはダッシュボードでモデル別 / ワークフロー別に可視化されます。
機密データを扱えますか?
はい。ENTERPRISE プランで AWS PrivateLink / Azure Private Endpoint / 顧客管理 KMS / SAML SSO に対応。データはお客様のテナントを出ずに処理可能です。SOC 2 Type II 取得済み、ローカル LLM (Llama / Qwen 等) と組み合わせれば外部 API を一切使わない運用も可能です。
既存の Dify ワークフローは取り込めますか?
はい、Workflow YAML / JSON のインポートに対応しています。既存ワークフローを起点に「ここに監視を追加して」「失敗時に Slack 通知して」のような追加要件を自然言語で書くと、差分パッチを生成します。
どんな LLM が使えますか?
OpenAI (GPT 系) / Anthropic (Claude 系) / Google (Gemini 系) / Mistral / Cohere の主要モデル、および Llama / Qwen / DeepSeek 等のローカル LLM (TEAM プラン以上)、Azure OpenAI / Bedrock / Vertex AI 経由のホストモデルにすべて対応します。

AI ネイティブのバッチ処理を、要件定義書から始めよう。

14 日間無料 ・ クレジットカード不要 ・ サンプル要件定義書付き

POC 期間中は専任エンジニアが要件整理・ワークフロー設計を伴走サポートします。