ここから本文です
AI(人工知能)& IoT
AIとIoTについて、ともに学びましょう。
 「エッジ(エッジコンピューティング)」とは、コンピューティングリソース(計算資源)を利用者の端末に近いネットワークの周縁部(エッジ)に配置することにより、低遅延応答、分散処理、トラフィック最適化などを実現するものと言えます。

 IoTに関連してビッグデータが増える中、以前に較べればネットワークもマシンの処理能力も大幅に改善されていますが、やはり中央のクラウドだけですべてを解決することはできず、分散処理の必要性はより強く認識されるようになってきています。

【エッジコンピューティングへのニーズ】
 最近、IoTの普及などにより、より多くのデバイスがネットワークに接続され、データがデジタル化され、保存され、処理されるようになっています。特に、ビッグデータ分析などの対象となってこなかった非構造化データが急増しています。また、クラウドサービスの普及が目覚ましく、より多くのデータがクラウド上に保存され、クラウドで処理すべきデータは急増していますが、クラウドで処理するためには、得られたデータをクラウドに送り、保存し、処理を行って、結果を受け取ることが必要になります。しかし、クラウドはネットワークの向こう側にあり、データが生成・利用される場所からは遠く離れていることも多いです。処理結果を受け取るまでの時間が長すぎると、リアルタイム性、高信頼性が要求される処理(例えば、映像から不審者を検知するなど)では、要求を満たせない可能性があります。また、クラウドまでデータを送り、結果を受け取るための通信コストも考慮する必要があります。加えて、情報管理の課題もあります。法規制によりデータを国内のサーバーにとどめなくてはならない場合もありますし、法的要請がなくても、流出するとセキュリティインシデントになるようなセンシティブな情報をみだりに外部に送る必要はありません。一方、処理を行う機器は価格が低廉化し、小型化し、消費電力量も少なくなってきています。また、5Gなどにより通信環境が改善され、高速・大容量化、接続端末数増、低遅延化が進んでいます。これらのメリットを最大限に活かしつつ、クラウド利用における課題を解消するには、一部のリソースをエッジに分散し、クラウドとの役割分担を図ることが有効になると考えられます。
イメージ 1エッジコンピューティングの概念図
(出典:情報通信総合研究所作成)

【各社の取り組み】
 米AT&T「エッジコンピューティングを通じたクラウドの再発明」として、ネットワークエッジにデータセンターを置く計画を発表しました。5G・SDNにより、「1桁ミリ秒」遅延での通信を実現するとともに、エッジコンピューティングでクラウドに「セカンダリのシステム」のオフロードを行い、「どこにでもワイヤレスのスーパーコンピューターがあるような」環境を提供するとしています。

 AWS(Amazon Web Services)も、エッジコンピューティングに関連する新たなIoTサービスを発表。ただし、同社はクラウドサービスを提供しており、エッジ部分にはリソースを持たないことから、あくまでもオンサイトにあるデバイスでAWSの機能が利用でき、ネットワークに接続されていない時でも稼働が可能になる環境を提供するというアプローチです。

 CDN(Content Delivery Network)で知られるAkamaiは、以前から配信に必要となるキャッシュサーバー(エッジサーバー)を世界各地に展開しており、ある意味、商用エッジコンピューティングサービスの先駆けとも言えます。

【実現するサービス】
 交通カメラで「機械学習」を実行し、交差点を通過する自転車、自動車、歩行者をカウントし、交通の流れを最適化して「安全を確保できる信号機のタイミングを割り出す」サービスや、「ロボットが小売店で優良顧客の顔を認識して挨拶したり、あるいは特別の割引を提供したりする」サービスが実現すると考えられます。

 また、車に関しても、「コネクテッドカー」のサービスや「自動運転レベルの高度化」には、ネットワークを活用し、クラウドと連携した処理が不可欠となります。その際、エッジコンピューティングにより、データセンターで処理すべき情報と、車の近くで高速に処理すべき情報を組み合わせ、例えば、「車に道路上の障害物の情報を素早く伝える」といった機能が実現すると考えられます。


 当分の間は、エッジコンピューティングの活用がさらに進むと考えられますが、課題も存在します。その一つは、どこをエッジと捉え、どのようにリソースを分散するかです。「マイクロデータセンター」の発展も影響してくると考えられます。
 理想的な処理形態はビジネス上の要求条件によってさまざまに異なります。さらに、データを処理してユーザーに返すだけでなく、得られたデータのさらなる活用も検討すべきで、集約サービスを汎用的なものとするか、産業別の特性に応じて分けるかも検討のポイントとなると思われます。


参考
情報通信総合研究所:InfoComニューズレター「エッジコンピューティングをめぐる最近の動向」
https://www.icr.co.jp/newsletter/wtr348-20180329-sadaka.html

この記事に

開くトラックバック(0)

ディープラーニング(deep learning)[深層学習]とは、「人間が自然に行うタスクをコンピュータに学習させる機械学習(machine learning)の手法のひとつ」で、人間の神経細胞(neuron)の仕組みを模したシステムであるニューラルネットワーク(neural network)がベースになっています。

 ニューラルネットワークを多層にして用いることで、データに含まれる特徴を段階的により深く学習することが可能になります。多層構造のニューラルネットワークに大量の画像、テキスト、音声データなどを入力することで、コンピュータのモデルはデータに含まれる特徴を各層で自動的に学習していきます。この構造と学習の手法がディープラーニング特有であり、これによりディープラーニングのモデルは極めて高い精度を誇り、時には人間の認識精度を超えることもあります。

【ディープラーニングの応用例】
◆自動運転
 一時停止標識や信号機のようなものを自動的に認識させています。さらに、歩行者検知にも使われており、事故の減少に役立てられています。
◆航空宇宙・防衛
 衛星から物体認識を行い、地上の部隊が安全なエリアにいるかどうかを判断するために使われています。
◆医療研究
 自動的にがん細胞を検出しています。UCLAの研究チームは、ディープラーニングの学習に必要な高次元のデータセットを作成する高精度な顕微鏡を構築し、正確にがん細胞を見つけ出しています。
◆産業オートメーション
 重機の周辺で業務を行う作業者の安全性向上に役立てられています。人や物が機械の危険域内に侵入した場合、これを自動的に検出することができます。
◆エレクトロニクス (CES)
 自動の音声翻訳に使われています。例えば、人の声に反応し、人の好みを学ぶことができるホームアシスタントデバイスには、ディープラーニングの技術が活用されています。

【ディープラーニングの仕組み】
 ディープラーニングの多くの手法に、ニューラルネットワークの構造が使われ、そうした背景からディープラーニングのモデルは、ディープニューラルネットワークとも呼ばれています。

イメージ 1

 従来のニューラルネットワークでは隠れ層はせいぜい2〜3程度でしたが、ディープニューラルネットワークは150もの隠れ層を持つこともありえます。
 ディープラーニングのモデルは、大規模なラベル付けされたデータとニューラルネットワークの構造を利用して学習を行います。これにより、データから直接特徴量を学習することができ、これまでのように手作業の特徴抽出は必要なくなりました。
 ディープニューラルネットワークで最もよく使われているのは、畳み込みニューラルネットワーク(CNNまたはConvNet)というネットワークです。
 畳み込みニューラルネットワークでは画像から直接特徴抽出を行います。数十から数百もの隠れ層により、1つの画像に含まれる数々の特徴を学習していきます。層が進むにつれて、より複雑な特徴を学習します。例えば、最初の隠れ層ではエッジ検出など単純な特徴からスタートして、最後の層ではより複雑な特徴、特に認識したい物体の形状の学習へと進んでいきます。

【機械学習とディープラーニングから最適な手法を選ぶ】
 機械学習には幅広い手法とモデルがあり、用途や処理するデータサイズ、解決したい課題のタイプに合わせて選択することができます。

 機械学習は、要求される結果により以下のように分類されます。
◆教師あり学習
入力とそれに対応すべき出力(人間の専門家が訓練例にラベル付けすることで提供されることが多いのでラベルとも呼ばれる)を写像する関数を生成する。
◆教師なし学習
入力のみ(ラベルなしの例)からモデルを構築する。
◆半教師あり学習
ラベルありの例とラベルなしの例をどちらも扱えるようにしたもので、それによって近似関数または分類器を生成する。
◆強化学習
周囲の環境を観測することでどう行動すべきかを学習する。行動によって必ず環境に影響を及ぼし、環境から報酬という形でフィードバックを得ることで学習アルゴリズムのガイドとする。
◆トランスダクション
(トランスダクティブ推論)観測された具体的な(訓練)例から具体的かつ固定の(テスト)例の新たな出力を予測しようとする。
◆マルチタスク学習
関連する複数の問題について同時に学習させ、主要な問題の予測精度を向上させる。(ウィキペディアより)

 一方、ディープラーニングを成功させるには、データを高速で処理するためのGPUだけでなく、モデルを学習させるための大量のデータ(数千もの画像)が必要となります。

 機械学習かディープラーニングを選ぶときは、まず高性能なGPUと大量のラベル付けされたデータがあるかどうかを確認する必要があります。もしどちらかが欠けている場合、ディープラーニングではなく機械学習が適当と言えるでしょう。ディープラーニングは一般的に機械学習より複雑であるため、信頼できる結果を得るには少なくとも数千の画像が必要となります。より高性能なGPUがあれば、そうした大量の画像の学習に必要な時間はさらに短縮していくことができます。

【ディープラーニングモデルの作成、学習方法】
 ディープラーニングを使用した物体認識には下記の3つの手法がよく使われています。
◆ゼロから学習する
 ディープネットワークをゼロから学習するには、大量のラベル付けされたデータを集め、特徴量を学習しモデル化するためのネットワークを設計する必要があります。この方法は、新しい分野での応用や、出力するカテゴリ数が多い場合には有効ですが、大量のデータと学習時間が必要であることから、使用頻度はそれほど高くありません。通常、こうしたタイプのネットワークの学習には、数日から数週間といった長い時間を要します。
◆転移学習
 多くのディープラーニングの応用では、学習済みモデルの微調整を行うタイプのアプローチとして、転移学習が利用されています。この転移学習では、AlexNetやGoogLeNetといった既存の学習済みのネットワークに対して、そのネットワークでは事前には学習されていないクラスを含むデータを与えて学習させます。その場合、学習済みのネットワークには若干の修正が必要となりますが、ネットワークの学習後には本来の「1000種類のカテゴリへの分類」の代わりに「犬か猫か」といった新しいタスクを行わせることができるようになります。この手法には、ゼロからネットワークを学習させる場合と比較して必要なデータ数がはるかに少なくて済むという利点があり(何百万ではなく数千の画像)、計算時間は数分から数時間程度に短縮されます。
◆特徴抽出
 ディープラーニングのより専門的な手法として、ネットワークを特徴抽出器として使用する方法があります。ネットワークのすべての層は画像からある種の特徴量を抽出する役割を持っているため、推論の任意の段階で特徴量を取り出すことが可能です。取り出した特徴量は、サポートベクターマシンなどの機械学習モデルへの入力として使用することができます。

【GPUでディープラーニングモデルを高速化】
 ディープラーニングモデルの学習には、数日から数週間といった長い時間を要することがありますが、GPUを使うことで処理を大幅に高速化できます。

【GPU(Graphics Processing Unit)】
 リアルタイム画像処理に特化した演算装置ないしプロセッサ。グラフィックコントローラなどと呼ばれる、コンピュータが画面に表示する映像を描画するための処理を行うICから発展した。特にリアルタイム3DCGなどに必要な、定形かつ大量の演算を並列にパイプライン処理するグラフィックスパイプライン性能を重視している。現在の高機能GPUは高速のVRAMと接続され、グラフィックスシェーディングに特化したプログラマブルな演算器(シェーダーユニット)を多数搭載している。
(ウィキペディアより)

出典
MathWorks:ディープラーニング これだけは知っておきたい3つのこと
https://jp.mathworks.com/discovery/deep-learning.html

この記事に

開くトラックバック(0)

「ビッグデータ」を文字通り解釈すれば、「膨大な量のデータ」ということになりますが、「ビッグデータ」が表す意味はもう少し複雑で、Hitachiのwebサイトのコラム「ビッグデータへの道」では、「残念ながら共通定義はまだ定まってはいない」としながらも、次のように定義しています。

「ビッグデータとはインターネットの普及とIT技術の進化によって生まれた、これまで企業が扱ってきた以上に、より大容量かつ多様なデータを扱う新たな仕組みを表すもので、その特性は量、頻度(更新速度)、多様性(データの種類)によって表される。」
【注意点】
◆大きなデータだからといってすべてが「ビッグデータ」ではない。
◆どんな場合でもNoSQLで処理するべきではなく、RDBMSとNoSQLは使い分ける。
◆ビッグデータとこれまでのシステムとの大きな違いは扱うデータの種類にある。

--------------------------------------------------
RDBMS(Relational DataBase Management System)
リレーショナルデータベースを管理するためのソフトウェアの総称。SQL言語を使ってデータを出し入れする。(代表例:オラクル)

NoSQL(Not only SQL)
NoSQLはNot only SQLの略で、その名の通り、SQL言語を使わずにデータの操作ができるデータベースを指す。Key-Value型データベース。(代表例:XML,JSON)

NoSQLは、大量のデータを保持することに向いている。データの参照には適すが、データの更新や削除には向いていないので、取っておく必要はあるけど、普段頻繁に利用しないデータには最適。(ログデータ、動画データ、バイナリデータ[大量のシンプルなデータ])

RDBMSはトランザクション処理(関連する一連の処理全体を一つの処理単位として管理する仕組み)が行えるから、一貫性を保つ必要があるデータに向いている。

参考:GMOクラウドアカデミー
   NoSQLとは?RDBMSと比較しながら分かりやすく解説
--------------------------------------------------
平成29年版情報通信白書では、

 「データが主導する経済成長と社会変革の実現においては、ビッグデータの利活用が鍵を握る。そしてビッグデータを収集するための手段がIoT(Internet of Things)であり、ビッグデータを分析・活用するための手段がAI(人工知能:Artificial Intelligence)である。」

と書かれています。また、

 「データ主導型社会における経済成長への貢献には4つの「V」の視点がある。すなわち、データ流通量(Volumeof Data)、データの速度(Velocity of Data)、データの種別(Variety of Data)、データの価値(Value of Data)である。」

と書かれており、上述の例に対して、「価値」が追加されています。

 また分類として、個人・企業・政府の3つの主体が生成しうるデータに着目し、大きく以下の4つに分類しています。

1)政府:国や地方公共団体が提供する「オープンデータ」
  政府や地方公共団体などが保有する公共情報
2)企業:暗黙知(ノウハウ)をデジタル化・構造化したデータ(「知のデジタル化」と呼ぶ)
  農業やインフラ管理からビジネス等に至る産業や企業が持ちうるパーソナルデータ以外のデータ
3)企業:M2M(Machine to Machine)から吐き出されるストリーミングデータ(「M2Mデータ」と呼ぶ)
  例えば工場等の生産現場におけるIoT機器から収集されるデータ、橋梁に設置されたIoT機器からのセンシングデータ(歪み、振動、通行車両の形式・重量など)等
4)個人:個人の属性に係る「パーソナルデータ」
  個人の属性情報、移動・行動・購買履歴、ウェアラブル機器から収集された個人情報を含む

 「現在、膨大な計算処理能力を備えていない機器であっても、クラウド上で計算してデータの処理を行うことが可能となり、またAIの発展も相まって、計算環境が格段に向上しかつ低コストで利用できるような世界へ進化している。」

と書かれていますが、「エッジ(エッジコンピューティング)」「フォグ(フォグコンピューティング)」の進展によって、今とは様相が大きく変わってくると思われます。

【エッジコンピューティング(edge computing)】
コンピューターネットワーク上で、利用者に近い場所に多数のサーバーを配置し、負荷の分散と通信の低遅延化を図ること。サーバーの集約化を図るクラウドコンピューティングに比べ、通信遅延を100分の1程度にすることができ、リアルタイム処理を必要とするMtoMやIoT端末への対応が可能となる。
[補説]エッジはコンピューターネットワークの端、縁(へり)の意。
(小学館/デジタル大辞泉より)

【フォグコンピューティング(Fog computing)】
ネットワーク環境の中で、データがクラウドに行く前、端末に近い場所でのミドルウェアによる分散処理環境を指す。シスコシステムズがIoT(モノのインターネット)への対応に向けて提唱した概念に由来し、「cloud=クラウド(雲)」との位置関係から「fog=フォグ(霧)」という表現が使われている。
(キーエンス/現場で役立つIoT用語辞典より)

出典
Hitachiのwebサイト:コラム「ビッグデータへの道」
GMOクラウドアカデミー:NoSQLとは?RDBMSと比較しながら分かりやすく解説
平成29年版情報通信白書

この記事に

開くトラックバック(0)

『BakeryScan』

『BakeryScan(ベーカリースキャン)』は、トレイ上の複数のパンの値段と種類をカメラで一括識別するシステムです。『AI-Scan』という画像認識エンジンを搭載。株式会社ブレインが販売しているものです。

久しぶりに行った近所のパン屋さんに導入されていました。

イメージ 1

パンのトレーをレジのところに置くと、瞬時にスキャンして、レジにパンの画像と種類、単価及び合計金額が表示され、レジもセルフレジになっています。

従来、3人の店員が処理しきれず、長い列になっていましが、今は2人の店員で、格段に処理が早くなっていました。

AIの識別は100%ではないので、誤った認識をした場合は、店員が選択し直します。

イメージ 2

画像認識というだけでは「AI」とは言えないのですが、修正データはサーバーに蓄積、機械学習により認識精度をさらに向上させるということですので、省人化、効率化の例として、正しくベストな『AI』適用例だと思います。

人間でも認識間違いはありますので、ある面、既に人間を越えているともいえますが、最終判断は人間に任されているので成り立っているもで、全てを『AI』に任せるのは危険です。

写真出展:第3回スマートSME(中小企業)研究会資料(株式会社ブレイン)

この記事に

開くトラックバック(0)

『AIアシスタント』というと、まず頭に浮かぶのは『Siri』ではないでしょうか。

AIアシスタント=音声アシスタント
音声認識技術と自然言語処理を組み合わせ、話し言葉による問いかけや要求に対し、適切に回答したり、動作したりする機能・サービス。多くスマートホン・タブレット型端末・スマートスピーカーなどに搭載される。ボイスアシスタント。音声エージェント。対話型アシスタント。対話型エージェント。会話型アシスタント。会話型エージェント。AIアシスタント。→パーソナルアシスタント2
[補説]アップル社のSiri(シリ)、マイクロソフト社のCortana(コルタナ)、グーグル社のGoogle Assistant(グーグルアシスタント)、NTTドコモのしゃべってコンシェル、LINE社のClova(クローバ)などがある。
[出典:デジタル大辞泉(小学館)]

『Siri』はiPhone、iPad、iMac等Appleのデバイスで使えるAIアシスタントです。
“Hey Siri”と話しかけると起動でき、音声だけでいろいろな操作をしたり、わからないことが聞けたり、使う環境にもよると思いますが、使いこなせば便利です。

iPhone4S以降の機種に搭載されていて、晩年のスティーブ・ジョブズの最後の作品とも言われています。

『Siri』の起源は1964年に開発された「ELIZA(イライザ)」という対話システムです。ELIZAは高性能な人工知能というわけではなく、コンピュータと人がまるで対話しているかのようにみせたシステムで、単純なプログラムを組み込むことで、定型的な返答でも、コンピュータと話しているかのようになります。

具体的には、人間が「お腹が空いた」とコンピュータに入力すると、コンピュータが「なぜお腹が空いたと言うの?」という具合に、ELIZAに記録されている定型文に相手の発言を取り入れ返すような単純な仕組みでできています。

「その質問、おもしろい?」「ほかのことを話しましょう」といったような話の展開を広げるような文言もあったようですが、そこに言葉の本質的な意味はありません。
これを原型として、人工知能が搭載された形でリリースされたのが『Siri』というわけです。

しかし、ELIZAが開発されてから約15年。1980年代の第二次AIブーム当時になっても、人工知能は人間と自然な対話ができるレベルではありませんでした。

2000年代になってからアメリカ政府主導の軍事機関、国防高等研究計画局(DARPA)により、戦場で兵士をサポートする目的で研究が進められ、この人工知能の実用化にむけてDARPAは、「SRI International」というスタンフォード大学が創設した非営利研究機関と連携し、「CALO(Cognitive Assistant that Learns and Organizes)」というプロジェクトを5年もの歳月をかけて進めました。その後、CALOプロジェクトはスタートアップ企業「Siri」として独立。2010年当初にたくさんのWebサービスと連携できるアプリとしてリリースされました。

Appleはこの「Siri」を買収し、音声認識や自然言語処理機能を付け加えた上で、iphone4sから「Siri」の機能を搭載しました。

テックメディア「BACKCHANNEL」に掲載されたApple幹部陣のインタビューによると、『Siri』「音声認識」「自然言語理解」「命令の実行」「返答」の4つから構成されています。

現在「AI(人工知能)」と呼ばれる分野には、自然言語処理、音声/画像認識、データマイニングなどさまざまな情報処理技術が含まれていますが、AI技術の核となるのが「機械学習」。Appleの公式サイトでは、『Siri』について「Appleが開発した機械学習テクノロジーが組み込まれている」と明言されており、『Siri』は正しく『AI』と言えるでしょう。

ここまで「Siri」について詳しく説明しましたが、最近、スマートスピーカーの存在感が増してきており、「Siri」以外の「AIアシスタント」が注目されています。

AmazonのAIアシスタント「Axela」を搭載するスマートスピーカー「Amazon Echo」は、米で大ヒットを記録。Googleは、AIアシスタント「Google アシスタント」に対応したスマートスピーカー「Google Home」を販売、今多くのCMが流れています。メッセージングアプリでおなじみのLINEは、AIアシスタント「Clova(クローバ)」に対応した「Clova Friends」「Clova Friends mini」「Clova WAVE」を販売しています。遅れをとったAppleから、「Siri」を搭載した「HomePod」が、米国、イギリス、オーストラリア、カナダ、フランス、ドイツで発売されていますが、スマートスピーカーとは言い難く、「Siri」と連動するスピーカーという位置付けと思われます。日本ではまだ発売されていません。

スマートスピーカー【smart speaker】
音声アシスタント機能を搭載した、スピーカー型の家庭用端末。音声による指示で音楽の再生や家電製品の制御、オンラインショッピングなどができる。質問に対し、サーチエンジンの結果から適切に回答する機能などもある。アマゾンエコーやグーグルホームなどがある。いずれもAI(人工知能)を利用するため、AIスピーカー、AIスマートスピーカーともいう。
[出典:デジタル大辞泉(小学館)]

【Amazon Echo】
Amazonが開発したスマートスピーカー。最初のモデルは2014年11月に発売されました。AIアシスタント「Alexa」に対応し、人間の音声コマンドを認識します。基本モデルのスマートスピーカー「Echo」のほか、スマートホームハブ内蔵の「Echo Plus」、外部スピーカーと接続可能な小型モデル「Echo Dot」、カメラを備えた「Echo look」、液晶モニターを備えた「Echo Spot」「Echo Show」などがあり、日本ではEcho、Echo Plus、Echo Dot、Echo Spotなどが発売中です。
イメージ 1
「Alexa」とできること
◆聴きたい曲のタイトルやアーティスト、ジャンル、ムード、年代を言うだけで音楽を再生できる。
◆ラジコやTuneInなどで様々なラジオ番組を聞くことができる。
◆Kindle本を読み上げることができる。
◆ニュースや情報、天気予報、上映中の映画や映画情報。
◆近くのカフェやお店などの場所や営業時間。
◆計算や単位の換算。
◆アラーム&タイマー。
◆買い物&やることリストの管理。
◆カレンダー、リマインダー。
◆照明、エアコン、TV、スマートロックなどのスマート家電をコントロール。
◆Alexa対応の赤外線コントローラーがあれば、赤外線リモコンのテレビやエアコン扇風機なども操作可能。
◆駅名でしりとりをしたり、ピカチュウや初音ミクとおしゃべりしたり、
豆しばが豆知識を教えてくれたり。
◆プライム対象商品の注文、商品の配送状況の確認。

【Google Home】
Googleが開発したスマートスピーカー。音声認識AI「Google アシスタント」に対応、「OK Google」もしくは「ねぇGoogle」の音声コマンドで起動。日本では標準モデルの「Google Home」と、小型モデルの「Google Home Mini」が入手可能。
イメージ 2
「Google アシスタント」とできること
◆今日の天気を教えてくれる
◆おはようのあいさつ
◆今日のスケジュールを教えてくる
◆アラーム、タイマーのセット
◆内蔵スピーカーから音楽を再生する
◆テレビに接続して、YouTube・Netflixなどの動画を再生できる
◆もちろん、ググれます
◆ヒマな時の話し相手にも
◆Google Home に自己紹介(最大6人の声を聞き分ける事ができる)
「OK Google, 私の名前は○○です」と話しかけると、「○○さんですね?」と聞き返してくれるので、そのまま返事をすればあなたの名前を認識し、返事をするときに名前を呼んでくれたりします。例えば、「OK Google, おはよう」と声をかければ、「おはようございます○○さん」と言ってくれます。

【Clova Friends, Clova Friends mini, Clova WAVE】
メッセージングアプリでおなじみのLINEが開発した音声認識AI「Clova」に対応するスマートスピーカーで、音声コマンドにより、「天気予報」「占い」のほか、LINEでメッセージを送ったり、送られてきたメッセージを読み上げることも可能。同社の定額音楽配信サービス「LINE MUSIC」とも連携。他のスマートスピーカーにはない特徴として、赤外線機能が挙げられます。赤外線リモコンに対応したテレビやエアコンなどを音声で操作することができます。また、Google Homeと異なりバッテリーを内蔵しているので、家の中である程度自由に動かして使うことも可能です。
イメージ 3
「Clova」とできること
◆LINE MUSICが提供する約4,700万の楽曲を楽しむことができます。
◆radikoと連携してラジオを楽しむことができます。
◆童話を朗読します。
◆LINEの無料通話の受発信ができます。
 ※Clova WAVEは対応していません。
◆LINE家族アカウントでのメッセージ送受信ができます。
◆天気予報や気象警報、注意報、台風情報などを教えてくれます。
◆ニュース情報を教えてくれます。
◆カレンダーサービスと連携したスケジュールを教えてくれます。
◆今日の運勢やラッキーアイテム、カラー、スポットを教えてくれます。
◆Wikipediaの内容を教えてくれます。
◆日本語を英語や中国語、韓国語に翻訳できます。
◆アラームやタイマーの設定ができます。
◆赤外線リモコン機能やインターネット通信により家電操作ができます。
◆Bluetoothペアリングの開始、解除ができます。
◆各機能の説明を音声で教えてくれます。

『スマートスピーカー』が、家庭の中心に入り込んでくると、私たちの生活にも大きく影響を与えると思われます。便利である反面、『スマートスピーカー依存症』のような人が現れる可能性が危惧されます。

参考
Ledge.ai:一番身近な人工知能Siri。人とシステムが対話できるまでの道のり
https://ledge.ai/siri_ai/

ITmedia Mobile:「Siri」と「AI」の関係を整理する
http://www.itmedia.co.jp/mobile/articles/1706/04/news012.html

Impress Watch:特集:スマートスピーカー
https://www.watch.impress.co.jp/smartspeaker/

Amazon:Alexaとできること
https://www.amazon.co.jp/b?node=5485773051


LINE Clova公式サイト
https://clova.line.me/

この記事に

開くトラックバック(0)

「データセンター」とは、インターネット用のサーバやデータ通信、固定・携帯・IP電話などの装置を設置・運用することに特化した建物の総称を指します。特にインターネット接続に特化したものを「インターネットデータセンター(Internet data center、iDC)」という場合があります。

データセンター業界のリーディングカンパニーである「@Tokyo」のホームページ(http://www.attokyo.co.jp/)を見ると、業界としての「データセンター」が理解できます。

この会社はセコムのグループ会社で、警備という仕事が、目に見える機材だけでなく、目に見えないデータのセキュリティーにまで及んでいることが分かります。ハード面では、サーバの設置場所の提供として、部屋単位、ゾーン単位、ラック単位などがあり、基本「建物の総称」には違いないのですが、ソフトバンクグループの「IDCフロンティア」という会社も同じですが、データセンター事業とともにクラウドサービスも展開しているため、クラウド利用者は、建物としての「データセンター」を意識しないので、「クラウド=データセンター」というイメージがあるかもしれません。

クラウドコンピューティングの時代では、ユーザー(企業、個人など)がコンピュータのハードウェア、ソフトウェア、データなどを、自分自身で保有・管理していた従来の形から、「ユーザーはインターネットの向こう側からサービスを受け、サービス利用料金を払う」形に変わっていきます。自社管理下にある設備に機材を設置し、ソフトウェアを配備・運用する形態(オンプレミス)は今後少なくなり、かわってデータセンターに企業の情報システムが設置される形態にシフトしていくと考えられます。

オンプレミスとクラウド】
 オンプレミスとは、サーバーやソフトウェアなどの情報システムを使用者(ビジネス利用の場合は企業)が管理する設備内に設置し、運用することを指します。自社運用ともいいます。従来は一般的なサーバー運用形態でしたが、インターネットに接続されたクラウドコンピューティングといった外部のサーバーリソースをオンデマンドで利用する新たな形態が普及するにつれて、従来の形態と区別するために「オンプレミス」という言葉が使われるようになりました。
 オンプレミスでは、自社内で構築・運用するため、サーバー調達に期間を要すことや初期導入コストが高く、またインフラの管理・維持コストもかかります。インフラのリソースの拡張にあたっては、ネットワークやサーバー環境などが自社の設備に依存するため、変更作業には多くの時間とコストが必要になります。一方で、すべて自社環境となるため必要なカスタマイズを自由に行うことができるメリットがあります。
 クラウドでは、サーバーなどのインフラ環境をあらかじめ拡張が可能な仮想環境で提供するため、利用者は必要な分だけ利用料金を支払うことができてコストを抑えることができる利点があります。また、サーバーなどの機器調達なく、オンデマンドでサーバーリソースを自由に増減でき、運用面の効率化が期待でき、大幅なコスト低減が期待できます。(IDCフロンティアwebページより)

IoT化が進むと、扱うデータ量が巨大になるため、クラウドの活用が進み、データセンターの利用も拡大することになります。

データセンターの特長には下記のようなものがあります。

◆通信事業者の光ファイバーなどの通信回線を大量に利用可能とするため、通常のオフィスビルと比べて非常に多くの通信回線が引き込み済となっています。
また通常、複数の通信事業者の通信回線が利用可能になっています。
◆災害時にもサービスの提供に極力支障が出ないように建物自体も耐震構造とされています。
◆電力供給が途絶えた場合に備え大容量の蓄電池や自家発電装置等を備えています。
◆構内で火災が発生した場合にも中に設置されている機器を極力痛めないよう、通常のスプリンクラーではなく二酸化炭素やフロンガスによる消火設備を持っています。

データセンターはサーバなどコンピュータ機器を冷却するために、データセンター専用の空調機を設置しており、万一の停電時のために無停電電源装置(UPS)を備えています。 データセンター専用空調機、UPSの省エネ技術は、日本が最も進んでいるとのことです。

一方、IoT化が進む中で、「クラウド」と対比されることが多い「エッジ(エッジコンピューティング)」に関連して、IDC Japan㈱では、エッジコンピューティングを行うシステムの設置場所を「エッジIT」と呼び、さらにエッジITの中でもユーザー固有の業務処理を行うために、独立したスペースやフロアを設けてサーバー、ストレージ、IoTゲートウェイ/ネットワーク機器などのICT機器を設置する設備を、「エッジマイクロデータセンター」と呼称しており、今後IoTの進展によって、「クラウド=データセンター」というイメージも変わっていくかもしれません。

【エッジコンピューティング(Edge Computing)】
コンピューターネットワーク上で、利用者に近い場所に多数のサーバーを配置し、負荷の分散と通信の低遅延化を図ること。サーバーの集約化を図るクラウドコンピューティングに比べ、通信遅延を100分の1程度にすることができ、リアルタイム処理を必要とするMtoMやIoT端末への対応が可能となる。
[補説]エッジはコンピューターネットワークの端、縁(へり)の意。
(小学館/デジタル大辞泉より)

「エッジ」については、別途詳細に説明したいと思います。


参考
日本データーセンター協会webサイト
ボクシルマガジン:データセンターとは|クラウドとの違いと定義・特徴・利用方法を解説

この記事に

開くトラックバック(0)

「スマートファクトリー」とは、工場内のあらゆる機器や設備、「工場内で行う人の作業などのデータを、IoT(モノのインターネット)などを活用して取得・収集し、このデータを分析・活用することで新たな付加価値を生み出せるようにする工場」のことです。

スマートファクトリーが注目される1つのきっかけになったのは、先に紹介した「インダストリー4.0」です。

日本でスマートファクトリー化が加速する理由として大きいのが「人手不足」。「データ活用」を進め、各工程からのデータを一元的に集約して管理することで、工場内の全体最適化が実現できるようになり、工程内の仕掛かり在庫を低減するとともに、従来は熟練技術者しか気付くことができなかったノウハウの形式知化ができるようになり、自動化領域が拡大して、人手を低減することが可能となると考えられます。

スマートファクトリー化は、主に4つのステップで進むと見られています。

1つ目:工場内の情報を可視化する「見える化」
2つ目:獲得した情報を分析して知見を導き出す「分析」
3つ目:分析結果を自動でフィジカルの世界にフィードバックする「制御」
4つ目:制御を組み合わせることで全体最適な結果を導き出す「最適化」

イメージ 1

また、スマートファクトリー化を進めるためには次の「3つの壁」を越えなければならないと言われています。

1つ目の壁「つながる化」における障壁です。工場内には古い機器や異なるベンダー間の異種環境が乱立しているために、製造装置のデータをネットワーク経由で送るということが難しいのが現状です。

まずは、「つながるモノ」から始めるのも前進の一歩だと思います。古い機器を「つなぐ」技術も提案されつつあり、問題解決はそう遠くないと思われます。

2つ目の壁「データ活用」における障壁です。データが取れたとしても、それぞれの機器で設定されている時系列がバラバラであったり、条件設定が正確でなかったりすると、すぐには「使えないデータ」となってしまいます。こうした「使えないデータ」「使えるデータ」にするためには、事前のデータ加工やデータ準備などが必要になります。

各種センサの進歩もありますが、データを共通化・共有化しようとする方向に向かっていることは確かです。

3つ目の壁「セキュリティ」の問題です。従来の工場は、「つながる」ことを想定していなかったために、サイバーセキュリティにおける対応策が用意されていません。対策の基本的な考え方なども浸透しておらず、必要な人材なども十分とはいえない状況です。

事務所のネット化はどこも進んでいると思いますが、工場内のすべての機器がネット接続されると、想定されない新たな問題が発生することも考えられ、事務処理とは切り離したネット環境を構築するなどの対策が必要となると思います。どこまで費用がかけられるかなどの問題もあり、最適解が見つからないのが現状です。


参考
MONOist/スマートファクトリー化がなぜ必要なのか、その理想像と越えるべき3つの壁(http://monoist.atmarkit.co.jp/mn/articles/1806/20/news005.html)

この記事に

開くトラックバック(0)

シンギュラリティ(Singularity)とは、技術的特異点(Technological Singularity)。テクノロジーの加速度的な進化、中でも人工知能(AI)の急速な発達で、人間の予測や想像を超えるほど社会が変容してしまう時期が来るという未来予測を指しています。

この概念はヴァーナー・ヴィンジとレイ・カーツワイルにより提示され、これまでの考え方がまったく適用できなくなる時期を指し、それは2045年ごろではないかと予測、「2045年問題」と呼ばれています。

シンギュラリティが訪れ、その時、人工知能が社会の運営に大きく関わるようになっていると、人間の想像もしなかったような状態に社会を変える可能性があります。それが、人間にとって大変なマイナスになるかもしれないと、AIの進歩を恐れる人もいます。

一方、カーツワイルの予測を「そんなにうまくいくはずがない」と懐疑的に見る人々もいます。特にAIに精通した人ほど、その難しさを日常的に肌で感じているせいなのか、そう考える傾向が強いようです。しかし、この時代に生きる私たちにとって大事なのは、シンギュラリティが起こるか否かではなく、そこへ向かってテクノロジーがエクスポネンシャル(指数関数的)に発展していくことは間違いないということです。

2020年代にはコンピュータの集積度が人間の脳を超えることはほぼ間違いないであろうと予見されています。日本のスーパーコンピュータ開発の第一人者である齊藤元章氏は、『エクサスケールの衝撃』(PHP研究所)という著書の中で、そのポイントのことを「プレ・シンギュラリティ(前特異点)」と呼んでいます。

プレ・シンギュラリティまで、あと十数年。本格的なシンギュラリティまでは、あと約30年。人類史に前例のない加速度で起こるこの激変期、具体的にどんなことが起こるのか、私たちは何をどのように考え、どのように対応していかねければならないかを、考えていかなければなりませんね。

アメリカの著名な起業家であるピーター・ディアマンディスは、物事がエクスポネンシャルに成長するとき、その多くのケースで「D」の頭文字を持つ次の6つの事象が連鎖反応的に起こると言っています。

1. デジタル化(Digitalization)
2. 潜行(Deception)
3. 破壊(Disruption)
4. 非収益化(Demonetization)
5. 非物質化(Dematerialization)
6. 大衆化(Democratization)

ディアマンディスは、こんなこともいっています。 「直線的な思考しかできない者にとって、6つのDは6の死に神(Death)にほかならない」

なんとも不吉な言葉ですが、実際、この展開を読むことができずに市場から撤退した企業や業種がいくつもあるのですから、決して大袈裟(おおげさ)な話ではなく、エクスポネンシャルな進化への理解は、シンギュラリティ直前の時代を生きる私たちにとって、必要不可欠な基礎知識です。


参考
PCNET『使える!情シス三段用語辞典17「シンギュラリティ」』
G+幻冬舎plus「AIが人類を超える」どころじゃない! こんなに凄い「シンギュラリティ」の衝撃。『なぜすべての技術は儲からなくなるのか?』

この記事に

開くトラックバック(0)

iPhoneをお使いの方は、iCloudやApple Music、siriなどで何となく「クラウド」のイメージがあるかもしれませんが、単に「実体の見えないインターネット」を指しているわけではないので、おさらいをしておきたいと思います。

「クラウド」とは「クラウドコンピューティング(Cloud Computing)」のこと。

「クラウドコンピューティング」の用語を最初に使用したのは、2006年 Google CEOのエリック・シュミットによる発言だとされ、Google App EngineやAmazon EC2などが登場した2006年から2008年頃にかけて普及。
(ウィキペディアより)

【クラウドコンピューティング(Cloud Computing)】
インターネットを介したコンピューターの利用形態のひとつ。利用者が行う作業をネットワーク上のサーバーで処理するもの。利用者自身でソフトウェアやハードウェアを保有・管理する必要がなく、インターネットへの接続環境さえ整っていれば活用できるのが特徴。◇「cloud」は雲の意。実体の見えないインターネットを、中が見えない雲にたとえたことに由来。略して「クラウド」ともいう。
(講談社/IT用語がわかる辞典より)

クラウドのサービスは、「SaaS」「IaaS」「PaaS」に分類できます。
イメージ 1
(Cloud Ace「知っておきたいIaaS、PaaS、SaaSの違い」より)

SaaS・PaaS・IaaSの大きな違いは、提供されているサービスの内容であり、サービスのソフトウェアが提供されているのか、システム構築のための基盤を提供するのか、開発のためのインフラを提供するのかの違いです。

【SaaS】
SaaSは「Software as a Service」の頭文字を取った略語で「サース」と読みます。これまでパッケージ製品として提供されていたソフトウェアを、インターネット経由でサービスとして提供・利用する形態のことを指します。
SaaSの特徴は、
◆インターネット環境下ならどこでも自由にアクセスできる
◆データをオンラインストレージに保存できる
◆複数のチーム・複数の人数で管理と編集ができる
代表的なSaaSは、
◆Google Apps
◆Office Web Apps
◆Dropbox

【PaaS】
PaaSは「Platform as a Service」の頭文字を取った略語で「パース」と読みます。アプリケーションソフトが稼動するためのハードウェアやOSなどのプラットフォーム一式を、インターネット上のサービスとして提供する形態のことを指します。
PaaSの特徴は、
◆提供されたプラットフォームのうえで開発を行える
◆プラットフォームの情報が多ければさまざまな開発ができる
◆自分でプラットフォームを使用してシステムを構築できる
 (アプリの場合は不可能)
代表的なPaaSは、
◆Google App Engine
◆Windows Azure

【IaaS】
IaaSは「Infrastructure as a Service」の頭文字を取った略語で「イァース」と読みます。情報システムの稼動に必要な仮想サーバをはじめとした機材やネットワークなどのインフラを、インターネット上のサービスとして提供する形態のことを指します。
IaaSの特徴は、
◆自由度の高いアプリやプラットフォームが作れる
◆専門的な知識が必要
代表的なIaaSは、
◆Google Compute Engine
◆Amazon Elastic Compute Cloud


参考
ボクシル・ボクシルマガジン
Cloud Aceウェブサイト

この記事に

開くトラックバック(0)

『コグニティブ』は『コグニティブ・コンピューティング』のことで、辞書によると、

コグニティブ・コンピューティング(cognitive computing)】
人間のように経験を通じて学習し、情報処理をする能力を備えたコンピューターシステム。大量のデータから相関関係を見出し、仮説を立て、推論や意思決定を行う、自然言語処理にすぐれた人工知能システムを指す。米国IBM社の開発したワトソンなど。(goo辞書より)

IBM Watsonは、2011年に米国の人気クイズ番組「ジョパティ!」で、本や百科事典など2億ページ分のテキストデータ(70GB程度、約100万冊の書籍に相当)の知識を携え、人間のクイズチャンピオンに勝利した有名なAIだと思いますが、IBMはWatsonを人工知能(AI)と呼ばず、コグニティブ・コンピューティング(cognitive computing)と呼んでいます。

イメージ 1

『コグニティブ・コンピューティング(cognitive computing)』『人工知能(AI)』と何が違うのか?

IBM基礎研究所のバイスプレジデント、ダリオ・ギル氏によると、

Watson(コグニティブ)
「人がより良い作業を行えるようにサポートするもの」:人が主体

人工知能(AI)
「人が行う作業をコンピュータが行うもの」:コンピュータが主体

の違いがあるとされています。

言わば、Watsonは、「汎用人工知能」AGI(Artifical General Intelligence)を目指したものと言うことが出来るのではないでしょうか。

IBM Watsonは自然言語処理をベースにしたもで、人との対話やシステムに蓄積された専門知識を利用して人間の意思決定支援を行います。日本では、みずほ銀行がコールセンター業務のオペレーター支援に採用するなど、金融機関向けのプロジェクトが進んでいます。

東大はIBMと共同で、がんに関連する約2千万件の論文をWatsonに学習させ、女性患者のがんに関係する遺伝子情報をWatsonに入力したところ、急性骨髄性白血病のうち、診断や治療が難しい「二次性白血病」という特殊なタイプだとの分析結果がわずか10分で出たとのこと。Watsonは治療法の変更を提案し、臨床チームが別の抗がん剤を採用。その結果、女性は数ヶ月で回復して退院し、通院治療を続けているそうです。(引用:2016.8.5 産経ニュース)

IBMは日本のソフトバンクとも、Pepperの開発で提携しており、Watson内蔵のPepperは、画像やテキストからソーシャルメディア、ビデオに到るまで幅広いデータソースを利用しており、これはロボットに「人間と同じやり方で ― 五感、学習、体験 ― 世界を理解する能力を与えるものだということです。
(引用:2016.1.7 TechCrunch Japan)

米IBM基礎研究所のバイスプレジデントで、ディープラーニング(深層学習)の応用やSyNAPSEチップの研究開発を牽引するDario Gil氏によれば、「日本の強みであるロボティクスとコグニティブシステムを組み合わせることで、優れた効果を発揮できるだろう。2020年の東京オリンピックでは、東京中を自律した自動車が走っているかもしれないが、これにWatsonがどう貢献できるのかということを考えていきたい」とのこと。(引用:2015.10.8 ZDNet Japan)

参考図書
日本経済新聞社:AI(人工知能)まるわかり

この記事に

開くトラックバック(0)

[ すべて表示 ]

本文はここまでですこのページの先頭へ
みんなの更新記事