Speechifyプロジェクトは、Azure関数とAPIの2つの主要なコンポーネントで構成されています。これらのコンポーネントは、画像を処理し、テキストからテキストを抽出し、オーディオファイルを生成し、ファイルをアップロードして処理ステータスをチェックするためのインターフェイスを提供するために連携します。
Azure Functionsプロジェクトは、Azure Blobストレージに保存されている画像の処理を担当します。テキスト抽出にはAzure Cognitive Servicesを利用し、オーディオ生成にAzure Speech Servicesを利用しています。その機能の概要は次のとおりです。
Azure Functionsプロジェクトは、Azure Blobストレージに保存された画像を処理し、Azure Cognitiveサービスを使用してテキストを抽出し、抽出されたテキストからオーディオファイルを生成します。 Azure Tableストレージを使用して、各操作の処理ステータスを追跡します。
APIプロジェクトは、Azure Blobストレージにファイルをアップロードし、Azure Functionsプロジェクトによって開始された処理タスクのステータスを確認するためのインターフェイスとして機能します。その機能の概要は次のとおりです。
APIプロジェクトは、ファイルをAzure Blobストレージにアップロードし、タスクの処理ステータスをクエリするためのエンドポイントを提供します。これらの操作を促進するために、Azure Blobストレージやその他のサービスと対話します。
リポジトリのクローン:バージョン制御システム(GitHubなど)からローカルマシンにsweeperifyリポジトリをクローニングすることから始めます。
Azure Functions Directoryに移動します。端末またはコマンドプロンプトで、Speechifyリポジトリ内のAzure Functionsプロジェクトを含むディレクトリに移動します。
アプリの設定を作成します:
appsettings.json
ファイルを作成します。appsettings.json
ファイルに、先に概説したように、Azure Servicesおよびその他の設定に必要な構成値を入力します。 appsettings.json
を機能させます: {
"ConnectionStrings" : {
"SpeechifyStorageConnectionString" : " YOUR_STORAGE_CONNECTION_STRING "
},
"TextEndpoint" : " YOUR_AZURE_COGNITIVE_SERVICES_TEXT_ENDPOINT " ,
"TextKey" : " YOUR_AZURE_COGNITIVE_SERVICES_TEXT_KEY " ,
"SpeechSubscriptionKey" : " YOUR_AZURE_SPEECH_SERVICES_SUBSCRIPTION_KEY " ,
"SpeechRegion" : " YOUR_AZURE_SPEECH_SERVICES_REGION "
}
プロジェクトを構築して実行します:
dotnet build
)を使用して、Azure Functionsプロジェクトを構築します。Azureに展開する(オプション) :
テスト機能:
トラブルシューティングとデバッグ:
APIディレクトリに移動する:端末またはコマンドプロンプトで、Speechifyリポジトリ内のAPIプロジェクトを含むディレクトリに移動します。
アプリの設定を作成します:
appsettings.json
ファイルを作成します。appsettings.json
ファイルに、前述のようにAzure BlobストレージとAPI URLに必要な構成値を入力します。 appsettings.json
: {
"ConnectionStrings" : {
"BlobStorageConnectionString" : " YOUR_BLOB_STORAGE_CONNECTION_STRING "
},
"ApiUrl" : " YOUR_API_URL "
}
プロジェクトを構築して実行します:
dotnet build
など)を使用して、APIプロジェクトを構築します。Azureに展開する(オプション) :
テスト機能:
トラブルシューティングとデバッグ:
mit