Azure Data Factory の最新情報: MySQL、DB2、Sybase、PostgreSQL、Teradata からデータのコピーが可能に

このポストは、6 月 15 日に投稿された Azure Data Factory Updates: Copy data from MySQL, DB2, Sybase, PostgreSQL and Teradata の翻訳です。 Azure Data Factory に新しいデータ ストアのサポートが追加されました。MySQL、DB2、Sybase、PostgreSQL、Teradata への接続が新たに可能となり、Azure Blob や SQL Database にデータをコピーできるようになりました。 ここでは例として、MySQL から Azure Blob へのデータの移行方法をご説明したいと思います。まず、次のように、MySQL のリンク サービスを追加します。 MySQL のリンク サービスの定義は、次のようになります。 { “name”: “MyLinkedService_MySQL”, “properties”: { “type”: “OnPremisesMySqlLinkedService”, “server”: “[ServerName]”, “database”: “[DatabaseName]”, “username”: “[UserName]”, “password”: “[Password]”, “gatewayName”:…

0

DocumentDB データのクエリおよび編集エクスペリエンスを改良

このポストは、6 月 11 日に投稿された Querying and Editing DocumentDB Data Just Got Better の翻訳です。 DocumentDB に関する以下の機能強化により、Azure プレビュー ポータルでのクエリ、ドキュメント、サーバー側プログラミングのエクスペリエンスと効率性が向上しました。 Query Explorer の改良 Document Explorer の改良 Script Explorer の追加   この記事では、これらの新機能と機能強化の詳細について説明します。 Query Explorer の改良 Query Explorer (英語) で複数のクエリの作成や貼り付けが可能になったほか、クエリを選択して強調表示し [Run query] をクリックすると任意のクエリのみ実行できるようになりました。同時に複数のクエリを実行することはできませんのでご注意ください。 また、構文の強調表示機能が拡張され、ARRAY_CONTAINS や CEILING、IS_BOOL などの DocumentDB の組み込み関数がサポートされるようになりました。DocumentDB の組み込み関数の詳細については、こちらのページを参照してください。 このほかにも、ファイルの内容を Query Explorer に読み込めるようになり、保存されているクエリをまとめて簡単に読み込むことができます。 Document Explorer の改良 Document Explorer (英語) でクエリから返される結果の数を指定できるようになりました…

0

DocumentDB へのデータのインポートがより高速、簡単に

このポストは、6 月 2 日に投稿された Importing Data to DocumentDB Just Got Faster and Easier の翻訳です。 Azure DocumentDB Data Migration Tool は、Azure の NoSQL ドキュメント データベースである DocumentDB にデータをインポートするためのオープン ソース ソリューションです。このツールの最新リリースでは、インポート中にデータを複数のコレクションにパーティション分割することにより、さまざまなソースから大規模なデータをさらに高速にインポートできるようになりました。 また、現在サポートされている CSV ファイルのインポートとインポート エラーのログ記録の機能がさらに強化されました。各データ ソース向けのコマンド ラインのサンプルなど、このツールの使用方法の詳細や新機能の概要については、私が執筆したこちらの記事 (英語) をお読みください。 パーティション分割のサポート DocumentDB Data Migration Tool で、複数の DocumentDB コレクションに対する読み取りと書き込みがサポートされるようになりました。複数のコレクションから読み取る場合は、正規表現を使用して 1 つまたは複数のコレクションを指定します。 インポート時に複数のコレクションにわたってデータをパーティション分割する場合は、既存の複数のコレクション (コレクションを新規作成する場合は、作成時にツールが使用する命名パターン*) と、パーティション キーとして使用するプロパティを指定します。 CSV 形式のサポートの強化 CSV ファイルをインポートする際に、CSV ファイル内の引用符で囲まれていない情報の型をツールが推定します…

0

DocumentDB の新しいインポート オプション

このポストは、5 月 5 日に投稿された New DocumentDB Import Options の翻訳です。 4 月 8 日に、さまざまなソースから DocumentDB にデータをインポートできるオープン ソース ソリューション、Azure DocumentDB Data Migration Tool がリリースされました。このツールでは主に次のソースからデータをインポートすることができます。 JSON ファイル MongoDB SQL Server CSV ファイル DocumentDB コレクション そして今回、さらに 2 つのインポート オプションがサポートされました。Azure Table Storage と、JSON/CSV/MongoDB の各エクスポート ファイルの URL です。 Azure Table Storage Azure Table Storage から DocumentDB へデータをインポートできるようになりました。接続文字列とテーブル名を指定するだけで、Azure Table のすべてのエントリをインポートできます。また、以下のオプションを利用して、インポート対象のデータを細かく指定することもできます。 [Filter] (フィルター)…

0

Power BI による出力のパブリック プレビューが Azure Stream Analytics で提供開始

このポストは、5 月 7 日に投稿された Power BI output now a public preview feature of Azure Stream Analytics の翻訳です。 Power BI による出力が Azure Stream Analytics のプライベート プレビューとして提供開始されてから約 2 か月が経ちました。たくさんの方からご好評の声をいただきたいへん感謝しています。そして数週間前には Stream Analytics の一般提供が開始されました。今回これに合わせて、Power BI による出力のパブリック プレビューも開始されたことをお知らせします。Power BI による出力を使用すると、デバイス、センサー、アプリケーションのデータがリアルタイムにダッシュボードに表示され、簡単に最新のデータを取得することができます。Power BI による出力を Azure Stream Analytics のジョブに実装する方法の詳細については、こちらのページ (英語) を参照してください。 Azure Stream Analytics の最新情報を入手したい方や、フィードバックやご提案のある方は、以下のコンテンツをご利用ください。 Twitter アカウント (@AzureStreaming をフォロー) LinkedIn のグループに参加する MSDN フォーラム…

0

マイクロソフトが、ガートナーの IaaS、アプリケーション PaaS、クラウド ストレージの各マジック クアドラントで唯一ベンダーとして「リーダー」に選出

このポストは、5 月 22 日に投稿された Microsoft – the only vendor named a leader in Gartner Magic Quadrants for IaaS, Application PaaS, and Cloud Storage の翻訳です。 Azure に限界などありません。マイクロソフトは、Azure がハイパースケールでエンタープライズ クラスのハイブリッド クラウド プラットフォームとして最高のものとなるように鋭意努力しています。そして、お客様のニーズに応えるために、Azure を全世界で提供するという私たちのビジョンを実現させることに全力で取り組んでいます。現在 Azure は 19 のリージョンでサービスを提供しており、それぞれで複数のデータセンターを運用しています。これにより、お客様は顧客や従業員に近い場所でアプリケーションをデプロイ、実行し、より幅広い市場で競争力を得ることができるようになっています。AWS と Google の提供地域を合わせても、Azure がサービスを提供している国と地域の広さには及びません。また、マイクロソフトは新しいインフラストラクチャを構築するために毎年数十億ドル規模の投資を行っており、Azure のクラウド プラットフォームでは現在 100 万を超えるサーバーを管理しています。アプリケーションの構築や実行にこのサーバー群をご利用いただけるため、お客様はクラウド プラットフォームの処理能力について気にすることなく、あらゆる規模にソリューションをスケーリングすることが可能です。 先日、ガートナーはクラウド IaaS のマジック クアドラント (英語) を公開し、その中でマイクロソフトは、IaaS 市場における「ビジョンの完全性 (Completeness of Vision)」と「実行能力 (Ability…

0

Azure Data Lake の紹介

このポストは、4 月 29 日に投稿された Introducing Azure Data Lake の翻訳です。 「データ レイク」は、業界でもまだ新しい概念です。データ レイクとは、要件やスキーマを正式に定義するまで、収集したあらゆる種類のデータを 1 か所にまとめて保存する全社規模のレポジトリのことです。データ レイクを活用することで、保存するデータをサイズ、構造、取り込み速度によって区別する必要がなく、要件やスキーマが定義されたら Hadoop や高度な分析機能を使用して、データのパターンを割り出すことができます。データ レイクはまた、保存されたデータをデータ ウェアハウスに移行する前の準備を行うための低コストのレポジトリとしても利用できます。 データ レイクは膨大な可能性を秘めているものの、まだ完全に実現されるには至っていません。ストレージ容量、ハードウェアの調達、スケーラビリティ、パフォーマンス、コストといった問題が重なり、お客様がデータ レイクを導入できていないのが現状です。先日の Build (英語) では、クラウド内のビッグ データの分析ワークロードに使用可能なマイクロソフトのハイパー スケール レポジトリである Azure Data Lake が発表されました。クラウド向けに構築された Azure Data Lake は、HDFS との互換性があり、無制限のスケーリングやきわめて高いスループットを実現し、エンタープライズ クラスの機能を備えています。   クラウド向け HDFS: Azure Data Lake は HDFS と互換性のある Hadoop ファイル システムで、Azure HDInsight などのマイクロソフト製品、Revolution-R Enterprise、Hortonworks や Cloudera…

0

Azure Data Factory の最新情報: サンプルのデプロイが容易に

このポストは、4 月 24 日に投稿された Azure Data Factory update: Simplified Sample deployment の翻訳です。 Azure Data Factory チームでは、皆様からのフィードバックに基づいて Azure Data Factory サービスを継続的に改善しています。本日、Azure 管理ポータルに新たな機能を追加し、数回のクリックで Data Factory にユースケース ベースのサンプルをデプロイできるようにしました。デプロイにかかる時間は 5 分以内となっています。 これにより、Data Factory の学習をより簡単に、より実践的に行っていただけるようになれば幸いです。このサンプルは標準パイプラインとして Data Factory にデプロイされるため、ソースを ADF エディター (英語) に表示してしくみを確認し、必要に応じて編集、カスタマイズすることができます。 サンプルのデプロイ方法は、以下の動画でご確認いただけます。     サンプルの起動 こちらのチュートリアルの手順に従って新しい Data Factory を作成するか、既存の Data Factory を使用します。 [DATA FACTORY] ブレードの [Sample pipelines] タイルをクリックします (以下のスクリーンショットを参照)。 図…

0

Build で発表された Azure の最新機能と技術革新をご紹介

このポストは、4 月 29 日に投稿された Azure peaks in the valley: New features and innovation の翻訳です。 Azure のあらゆる技術革新の中心にあるのは、開発者や独立系ソフトウェア ベンダーの要望に応えるというマイクロソフトの情熱です。本日の //build で発表した Azure サービスの新たな更新により、あらゆるタイプの開発者がさまざまなデバイスやプラットフォームに対応したクラウド アプリやクラウド サービスを柔軟に構築できるようになります。マイクロソフトは今回の更新によって、企業がデータから最大限の価値を引き出すことを可能にする予測分析およびインテリジェント アプリケーション向けの最も完全なプラットフォームを提供できるようになりました。 SQL Database の機能強化 今朝 Scott がステージ上でご紹介したとおり、SQL Database に対してさまざまな更新と機能強化を行いました。SaaS (サービスとしてのソフトウェア) アプリケーションの開発者は、SQL Database によって爆発的成長と収益性の高いビジネス モデルに同時に対応することができます。データベースのリソース消費量が予測できないワークロード向けには、プールしたリソースを複数のデータベースで利用できる柔軟なデータベース モデルのプレビュー版を導入します。ピーク時の需要に対応できるよう過剰にプロビジョニングするのではなく、柔軟なデータベース プールを利用して、予算の範囲内で数百または数千単位のデータベースでリソースを活用することができます。また、複数のデータベース全体のコストとパフォーマンスを制御できる購入モデルにより、コスト効率を高めることができます。SQL Database を使用して数多くのデータベースを管理する方法の詳細については、こちらを参照してください。 また、SQL Server の機能との互換性がほぼ完全になったことで、高負荷のワークロードの実行が可能になり、堅牢かつミッションクリティカルなクラウド アプリケーションを構築したり、既存のオンプレミス SQL Server のデータベースを Azure SQL Database に移行するためのプログラム可能な領域が提供されます。本日より、Azure SQL Database 用…

0

サーバーサイド JavaScript で Azure DocumentDB のアプリケーションのパフォーマンスを大幅に向上

このポストは、4 月 23 日に投稿された Boost Your Application’s Performance with Server-Side JavaScript in Azure DocumentDB の翻訳です。 JavaScript を最新の T-SQL として統合 Azure DocumentDB のデータベース エンジン内で JavaScript ロジックのトランザクションをネイティブに実行できることはご存知でしょうか? JavaScript を最新の T-SQL として使用すると、機能豊富で使い慣れたインターフェイスをビジネス ロジックに実装することができます。ロジックはストアド プロシージャ、トリガー、ユーザー定義関数 (UDF) の形で記述することができます。今回は DocumentDB がストアド プロシージャをどのように解釈するかについて説明します。 パフォーマンスの高いバッチ処理とシーケンス処理 ストアド プロシージャの大きなメリットは、複雑なバッチ処理やシーケンス処理を、データの格納場所に近いデータベース エンジン内で直接実行できることです。ストアド プロシージャでは、挿入、更新、削除などの処理をグループ化およびシーケンス化し、まとめて実行します。このため、バッチ処理やシーケンス処理でのネットワーク トラフィックの遅延コストを完全に削減できます。   一連のデータベース処理を実行する場合   ストアド プロシージャで一連の処理を実行する場合 また、ストアド プロシージャの登録時に暗黙的にバイト コード形式にプリコンパイルされるため、呼び出すたびにスクリプトをコンパイルする必要がないというメリットもあります。JSON は Javascript 言語形式のシステムに属し、DocumentDB のストレージの基本単位であるため、JSON ドキュメントをバッファー…

0