Auto Tagger

詳細

ファイルをダウンロード

モデル説明

**使用前にPythonをインストールしてください!!**

この完全自動ラベリングツールは、今日最も強力な大規模言語モデル(LLM)を使用して、トレーニングデータセットのラベルを自動生成します。テスト結果によると、Gemini 2.0 Flashを使用して生成されたラベルの精度は、人間による手動タグ付けと同等です。

1. **Pythonがインストールされていることを確認してください。** このラベリングツールは、Google Gemini API用とOpenAI API用の2つのバージョンを提供しています。Gemini APIバージョンでは、Googleの任意のモデルを利用できます。Googleアカウントをお持ちの場合、Gemini AI Studioから無料のAPIキーを取得できます。具体的な手順はオンラインでチュートリアルを検索してください!現在、Googleはアカウントごとに無料クォータを提供しており、支払い不要で1日最大1500回のGemini 2.0 Flash呼び出しを利用できます。これは画像ラベリングに十分です!(※特定の地域ではGemini APIの使用にVPNや類似ツールが必要な場合があります。)OpenAI APIキー(またはOpenAI互換のサードパーティAPI)をお持ちの場合は、OpenAI APIバージョンをご使用ください。

2. **解凍後、start_webui.batをクリックしてください。** 初回実行時、必要な依存関係が自動的にインストールされます。少なくとも500MBの空き容量があることを確認してください。依存関係のインストールが完了すると、Web UIが自動的に開きます。(※プログラムを起動する際はVPN/プロキシをオフにしてください。有効なままにするとWeb UIが起動しない可能性があります。)

3. **このツールは、自動バッチ画像ラベリングと手動単一画像ラベリングの両方をサポートしています。**

*自動バッチ画像ラベリング*を実行するには、「Images Folder」フィールドにトレーニングセットのパス(例:c:\my_training_set)を入力し、ページの「Batch process images」ボタンをクリックして開始します。生成されたラベルは、対応する画像と同じ名前の.txtファイルとして保存され、そのファイルはトレーニングセットフォルダー内に保存されます。処理を中断するには、横にある「Stop」ボタンをクリックしてください。

*自動バッチ画像ラベリング*はマルチスレッディングもサポートしており、1バッチあたり最大40枚の画像を処理できます。APIのRPM(1分あたりのリクエスト数)制限が十分に高い場合、1000枚の画像からなるトレーニングセットは、25バッチを自動実行するだけでラベリング可能で、数分で完了する可能性があります。バッチあたりの画像数は、「Max Concurrent Images (Batch Size)」フィールドで設定できます。(「Interval Between Batches (seconds)」はバッチ間の待ち時間です。デフォルトの5秒は通常問題ありません。)画像を1枚ずつ順次処理したい場合は、「Max Concurrent Images (Batch Size)」を1に、「Interval Between Batches (seconds)」を0に設定してください。

4. ***このツールには「In-Context Learning」モードも搭載されています***(「incontext-learning」とラベルされたページをご覧ください)。この機能を使えば、2つの参照画像とその対応するラベルをアップロードでき、LLMがこれらの例からラベリングスタイルを学習し、他の画像に適用します。LLMに特定の要件(例:自然言語タグやDanbooruスタイルのタグ)でラベリングしてもらいたい場合、「In-Context Learning」ページの使用を強く推奨します。

5. **このツールはデータセット前処理もサポートしています。** ここでは、40万〜100万ピクセルの目標合計ピクセル数を入力してください(60万以上を推奨)。その後、「Run」をクリックすると、ツールはトレーニングセット内の画像を元のアスペクト比を維持したまま、指定されたピクセル数に切り抜きます。小さな画像はラベリングコストを効果的に削減できます。(この機能は元のデータセットに一切影響を与えないため、安心してご利用ください。)

このモデルで生成された画像

画像が見つかりません。