ここから本文です
AI(人工知能)& IoT
AIとIoTについて、ともに学びましょう。

書庫全体表示

記事検索
検索

全4ページ

[1] [2] [3] [4]

[ 次のページ ]

 「エッジ(エッジコンピューティング)」とは、コンピューティングリソース(計算資源)を利用者の端末に近いネットワークの周縁部(エッジ)に配置することにより、低遅延応答、分散処理、トラフィック最適化などを実現するものと言えます。

 IoTに関連してビッグデータが増える中、以前に較べればネットワークもマシンの処理能力も大幅に改善されていますが、やはり中央のクラウドだけですべてを解決することはできず、分散処理の必要性はより強く認識されるようになってきています。

【エッジコンピューティングへのニーズ】
 最近、IoTの普及などにより、より多くのデバイスがネットワークに接続され、データがデジタル化され、保存され、処理されるようになっています。特に、ビッグデータ分析などの対象となってこなかった非構造化データが急増しています。また、クラウドサービスの普及が目覚ましく、より多くのデータがクラウド上に保存され、クラウドで処理すべきデータは急増していますが、クラウドで処理するためには、得られたデータをクラウドに送り、保存し、処理を行って、結果を受け取ることが必要になります。しかし、クラウドはネットワークの向こう側にあり、データが生成・利用される場所からは遠く離れていることも多いです。処理結果を受け取るまでの時間が長すぎると、リアルタイム性、高信頼性が要求される処理(例えば、映像から不審者を検知するなど)では、要求を満たせない可能性があります。また、クラウドまでデータを送り、結果を受け取るための通信コストも考慮する必要があります。加えて、情報管理の課題もあります。法規制によりデータを国内のサーバーにとどめなくてはならない場合もありますし、法的要請がなくても、流出するとセキュリティインシデントになるようなセンシティブな情報をみだりに外部に送る必要はありません。一方、処理を行う機器は価格が低廉化し、小型化し、消費電力量も少なくなってきています。また、5Gなどにより通信環境が改善され、高速・大容量化、接続端末数増、低遅延化が進んでいます。これらのメリットを最大限に活かしつつ、クラウド利用における課題を解消するには、一部のリソースをエッジに分散し、クラウドとの役割分担を図ることが有効になると考えられます。
イメージ 1エッジコンピューティングの概念図
(出典:情報通信総合研究所作成)

【各社の取り組み】
 米AT&T「エッジコンピューティングを通じたクラウドの再発明」として、ネットワークエッジにデータセンターを置く計画を発表しました。5G・SDNにより、「1桁ミリ秒」遅延での通信を実現するとともに、エッジコンピューティングでクラウドに「セカンダリのシステム」のオフロードを行い、「どこにでもワイヤレスのスーパーコンピューターがあるような」環境を提供するとしています。

 AWS(Amazon Web Services)も、エッジコンピューティングに関連する新たなIoTサービスを発表。ただし、同社はクラウドサービスを提供しており、エッジ部分にはリソースを持たないことから、あくまでもオンサイトにあるデバイスでAWSの機能が利用でき、ネットワークに接続されていない時でも稼働が可能になる環境を提供するというアプローチです。

 CDN(Content Delivery Network)で知られるAkamaiは、以前から配信に必要となるキャッシュサーバー(エッジサーバー)を世界各地に展開しており、ある意味、商用エッジコンピューティングサービスの先駆けとも言えます。

【実現するサービス】
 交通カメラで「機械学習」を実行し、交差点を通過する自転車、自動車、歩行者をカウントし、交通の流れを最適化して「安全を確保できる信号機のタイミングを割り出す」サービスや、「ロボットが小売店で優良顧客の顔を認識して挨拶したり、あるいは特別の割引を提供したりする」サービスが実現すると考えられます。

 また、車に関しても、「コネクテッドカー」のサービスや「自動運転レベルの高度化」には、ネットワークを活用し、クラウドと連携した処理が不可欠となります。その際、エッジコンピューティングにより、データセンターで処理すべき情報と、車の近くで高速に処理すべき情報を組み合わせ、例えば、「車に道路上の障害物の情報を素早く伝える」といった機能が実現すると考えられます。


 当分の間は、エッジコンピューティングの活用がさらに進むと考えられますが、課題も存在します。その一つは、どこをエッジと捉え、どのようにリソースを分散するかです。「マイクロデータセンター」の発展も影響してくると考えられます。
 理想的な処理形態はビジネス上の要求条件によってさまざまに異なります。さらに、データを処理してユーザーに返すだけでなく、得られたデータのさらなる活用も検討すべきで、集約サービスを汎用的なものとするか、産業別の特性に応じて分けるかも検討のポイントとなると思われます。


参考
情報通信総合研究所:InfoComニューズレター「エッジコンピューティングをめぐる最近の動向」
https://www.icr.co.jp/newsletter/wtr348-20180329-sadaka.html

この記事に

開くトラックバック(0)

ディープラーニング(deep learning)[深層学習]とは、「人間が自然に行うタスクをコンピュータに学習させる機械学習(machine learning)の手法のひとつ」で、人間の神経細胞(neuron)の仕組みを模したシステムであるニューラルネットワーク(neural network)がベースになっています。

 ニューラルネットワークを多層にして用いることで、データに含まれる特徴を段階的により深く学習することが可能になります。多層構造のニューラルネットワークに大量の画像、テキスト、音声データなどを入力することで、コンピュータのモデルはデータに含まれる特徴を各層で自動的に学習していきます。この構造と学習の手法がディープラーニング特有であり、これによりディープラーニングのモデルは極めて高い精度を誇り、時には人間の認識精度を超えることもあります。

【ディープラーニングの応用例】
◆自動運転
 一時停止標識や信号機のようなものを自動的に認識させています。さらに、歩行者検知にも使われており、事故の減少に役立てられています。
◆航空宇宙・防衛
 衛星から物体認識を行い、地上の部隊が安全なエリアにいるかどうかを判断するために使われています。
◆医療研究
 自動的にがん細胞を検出しています。UCLAの研究チームは、ディープラーニングの学習に必要な高次元のデータセットを作成する高精度な顕微鏡を構築し、正確にがん細胞を見つけ出しています。
◆産業オートメーション
 重機の周辺で業務を行う作業者の安全性向上に役立てられています。人や物が機械の危険域内に侵入した場合、これを自動的に検出することができます。
◆エレクトロニクス (CES)
 自動の音声翻訳に使われています。例えば、人の声に反応し、人の好みを学ぶことができるホームアシスタントデバイスには、ディープラーニングの技術が活用されています。

【ディープラーニングの仕組み】
 ディープラーニングの多くの手法に、ニューラルネットワークの構造が使われ、そうした背景からディープラーニングのモデルは、ディープニューラルネットワークとも呼ばれています。

イメージ 1

 従来のニューラルネットワークでは隠れ層はせいぜい2〜3程度でしたが、ディープニューラルネットワークは150もの隠れ層を持つこともありえます。
 ディープラーニングのモデルは、大規模なラベル付けされたデータとニューラルネットワークの構造を利用して学習を行います。これにより、データから直接特徴量を学習することができ、これまでのように手作業の特徴抽出は必要なくなりました。
 ディープニューラルネットワークで最もよく使われているのは、畳み込みニューラルネットワーク(CNNまたはConvNet)というネットワークです。
 畳み込みニューラルネットワークでは画像から直接特徴抽出を行います。数十から数百もの隠れ層により、1つの画像に含まれる数々の特徴を学習していきます。層が進むにつれて、より複雑な特徴を学習します。例えば、最初の隠れ層ではエッジ検出など単純な特徴からスタートして、最後の層ではより複雑な特徴、特に認識したい物体の形状の学習へと進んでいきます。

【機械学習とディープラーニングから最適な手法を選ぶ】
 機械学習には幅広い手法とモデルがあり、用途や処理するデータサイズ、解決したい課題のタイプに合わせて選択することができます。

 機械学習は、要求される結果により以下のように分類されます。
◆教師あり学習
入力とそれに対応すべき出力(人間の専門家が訓練例にラベル付けすることで提供されることが多いのでラベルとも呼ばれる)を写像する関数を生成する。
◆教師なし学習
入力のみ(ラベルなしの例)からモデルを構築する。
◆半教師あり学習
ラベルありの例とラベルなしの例をどちらも扱えるようにしたもので、それによって近似関数または分類器を生成する。
◆強化学習
周囲の環境を観測することでどう行動すべきかを学習する。行動によって必ず環境に影響を及ぼし、環境から報酬という形でフィードバックを得ることで学習アルゴリズムのガイドとする。
◆トランスダクション
(トランスダクティブ推論)観測された具体的な(訓練)例から具体的かつ固定の(テスト)例の新たな出力を予測しようとする。
◆マルチタスク学習
関連する複数の問題について同時に学習させ、主要な問題の予測精度を向上させる。(ウィキペディアより)

 一方、ディープラーニングを成功させるには、データを高速で処理するためのGPUだけでなく、モデルを学習させるための大量のデータ(数千もの画像)が必要となります。

 機械学習かディープラーニングを選ぶときは、まず高性能なGPUと大量のラベル付けされたデータがあるかどうかを確認する必要があります。もしどちらかが欠けている場合、ディープラーニングではなく機械学習が適当と言えるでしょう。ディープラーニングは一般的に機械学習より複雑であるため、信頼できる結果を得るには少なくとも数千の画像が必要となります。より高性能なGPUがあれば、そうした大量の画像の学習に必要な時間はさらに短縮していくことができます。

【ディープラーニングモデルの作成、学習方法】
 ディープラーニングを使用した物体認識には下記の3つの手法がよく使われています。
◆ゼロから学習する
 ディープネットワークをゼロから学習するには、大量のラベル付けされたデータを集め、特徴量を学習しモデル化するためのネットワークを設計する必要があります。この方法は、新しい分野での応用や、出力するカテゴリ数が多い場合には有効ですが、大量のデータと学習時間が必要であることから、使用頻度はそれほど高くありません。通常、こうしたタイプのネットワークの学習には、数日から数週間といった長い時間を要します。
◆転移学習
 多くのディープラーニングの応用では、学習済みモデルの微調整を行うタイプのアプローチとして、転移学習が利用されています。この転移学習では、AlexNetやGoogLeNetといった既存の学習済みのネットワークに対して、そのネットワークでは事前には学習されていないクラスを含むデータを与えて学習させます。その場合、学習済みのネットワークには若干の修正が必要となりますが、ネットワークの学習後には本来の「1000種類のカテゴリへの分類」の代わりに「犬か猫か」といった新しいタスクを行わせることができるようになります。この手法には、ゼロからネットワークを学習させる場合と比較して必要なデータ数がはるかに少なくて済むという利点があり(何百万ではなく数千の画像)、計算時間は数分から数時間程度に短縮されます。
◆特徴抽出
 ディープラーニングのより専門的な手法として、ネットワークを特徴抽出器として使用する方法があります。ネットワークのすべての層は画像からある種の特徴量を抽出する役割を持っているため、推論の任意の段階で特徴量を取り出すことが可能です。取り出した特徴量は、サポートベクターマシンなどの機械学習モデルへの入力として使用することができます。

【GPUでディープラーニングモデルを高速化】
 ディープラーニングモデルの学習には、数日から数週間といった長い時間を要することがありますが、GPUを使うことで処理を大幅に高速化できます。

【GPU(Graphics Processing Unit)】
 リアルタイム画像処理に特化した演算装置ないしプロセッサ。グラフィックコントローラなどと呼ばれる、コンピュータが画面に表示する映像を描画するための処理を行うICから発展した。特にリアルタイム3DCGなどに必要な、定形かつ大量の演算を並列にパイプライン処理するグラフィックスパイプライン性能を重視している。現在の高機能GPUは高速のVRAMと接続され、グラフィックスシェーディングに特化したプログラマブルな演算器(シェーダーユニット)を多数搭載している。
(ウィキペディアより)

出典
MathWorks:ディープラーニング これだけは知っておきたい3つのこと
https://jp.mathworks.com/discovery/deep-learning.html

この記事に

開くトラックバック(0)

「ビッグデータ」を文字通り解釈すれば、「膨大な量のデータ」ということになりますが、「ビッグデータ」が表す意味はもう少し複雑で、Hitachiのwebサイトのコラム「ビッグデータへの道」では、「残念ながら共通定義はまだ定まってはいない」としながらも、次のように定義しています。

「ビッグデータとはインターネットの普及とIT技術の進化によって生まれた、これまで企業が扱ってきた以上に、より大容量かつ多様なデータを扱う新たな仕組みを表すもので、その特性は量、頻度(更新速度)、多様性(データの種類)によって表される。」
【注意点】
◆大きなデータだからといってすべてが「ビッグデータ」ではない。
◆どんな場合でもNoSQLで処理するべきではなく、RDBMSとNoSQLは使い分ける。
◆ビッグデータとこれまでのシステムとの大きな違いは扱うデータの種類にある。

--------------------------------------------------
RDBMS(Relational DataBase Management System)
リレーショナルデータベースを管理するためのソフトウェアの総称。SQL言語を使ってデータを出し入れする。(代表例:オラクル)

NoSQL(Not only SQL)
NoSQLはNot only SQLの略で、その名の通り、SQL言語を使わずにデータの操作ができるデータベースを指す。Key-Value型データベース。(代表例:XML,JSON)

NoSQLは、大量のデータを保持することに向いている。データの参照には適すが、データの更新や削除には向いていないので、取っておく必要はあるけど、普段頻繁に利用しないデータには最適。(ログデータ、動画データ、バイナリデータ[大量のシンプルなデータ])

RDBMSはトランザクション処理(関連する一連の処理全体を一つの処理単位として管理する仕組み)が行えるから、一貫性を保つ必要があるデータに向いている。

参考:GMOクラウドアカデミー
   NoSQLとは?RDBMSと比較しながら分かりやすく解説
--------------------------------------------------
平成29年版情報通信白書では、

 「データが主導する経済成長と社会変革の実現においては、ビッグデータの利活用が鍵を握る。そしてビッグデータを収集するための手段がIoT(Internet of Things)であり、ビッグデータを分析・活用するための手段がAI(人工知能:Artificial Intelligence)である。」

と書かれています。また、

 「データ主導型社会における経済成長への貢献には4つの「V」の視点がある。すなわち、データ流通量(Volumeof Data)、データの速度(Velocity of Data)、データの種別(Variety of Data)、データの価値(Value of Data)である。」

と書かれており、上述の例に対して、「価値」が追加されています。

 また分類として、個人・企業・政府の3つの主体が生成しうるデータに着目し、大きく以下の4つに分類しています。

1)政府:国や地方公共団体が提供する「オープンデータ」
  政府や地方公共団体などが保有する公共情報
2)企業:暗黙知(ノウハウ)をデジタル化・構造化したデータ(「知のデジタル化」と呼ぶ)
  農業やインフラ管理からビジネス等に至る産業や企業が持ちうるパーソナルデータ以外のデータ
3)企業:M2M(Machine to Machine)から吐き出されるストリーミングデータ(「M2Mデータ」と呼ぶ)
  例えば工場等の生産現場におけるIoT機器から収集されるデータ、橋梁に設置されたIoT機器からのセンシングデータ(歪み、振動、通行車両の形式・重量など)等
4)個人:個人の属性に係る「パーソナルデータ」
  個人の属性情報、移動・行動・購買履歴、ウェアラブル機器から収集された個人情報を含む

 「現在、膨大な計算処理能力を備えていない機器であっても、クラウド上で計算してデータの処理を行うことが可能となり、またAIの発展も相まって、計算環境が格段に向上しかつ低コストで利用できるような世界へ進化している。」

と書かれていますが、「エッジ(エッジコンピューティング)」「フォグ(フォグコンピューティング)」の進展によって、今とは様相が大きく変わってくると思われます。

【エッジコンピューティング(edge computing)】
コンピューターネットワーク上で、利用者に近い場所に多数のサーバーを配置し、負荷の分散と通信の低遅延化を図ること。サーバーの集約化を図るクラウドコンピューティングに比べ、通信遅延を100分の1程度にすることができ、リアルタイム処理を必要とするMtoMやIoT端末への対応が可能となる。
[補説]エッジはコンピューターネットワークの端、縁(へり)の意。
(小学館/デジタル大辞泉より)

【フォグコンピューティング(Fog computing)】
ネットワーク環境の中で、データがクラウドに行く前、端末に近い場所でのミドルウェアによる分散処理環境を指す。シスコシステムズがIoT(モノのインターネット)への対応に向けて提唱した概念に由来し、「cloud=クラウド(雲)」との位置関係から「fog=フォグ(霧)」という表現が使われている。
(キーエンス/現場で役立つIoT用語辞典より)

出典
Hitachiのwebサイト:コラム「ビッグデータへの道」
GMOクラウドアカデミー:NoSQLとは?RDBMSと比較しながら分かりやすく解説
平成29年版情報通信白書

この記事に

開くトラックバック(0)

『BakeryScan』

『BakeryScan(ベーカリースキャン)』は、トレイ上の複数のパンの値段と種類をカメラで一括識別するシステムです。『AI-Scan』という画像認識エンジンを搭載。株式会社ブレインが販売しているものです。

久しぶりに行った近所のパン屋さんに導入されていました。

イメージ 1

パンのトレーをレジのところに置くと、瞬時にスキャンして、レジにパンの画像と種類、単価及び合計金額が表示され、レジもセルフレジになっています。

従来、3人の店員が処理しきれず、長い列になっていましが、今は2人の店員で、格段に処理が早くなっていました。

AIの識別は100%ではないので、誤った認識をした場合は、店員が選択し直します。

イメージ 2

画像認識というだけでは「AI」とは言えないのですが、修正データはサーバーに蓄積、機械学習により認識精度をさらに向上させるということですので、省人化、効率化の例として、正しくベストな『AI』適用例だと思います。

人間でも認識間違いはありますので、ある面、既に人間を越えているともいえますが、最終判断は人間に任されているので成り立っているもで、全てを『AI』に任せるのは危険です。

写真出展:第3回スマートSME(中小企業)研究会資料(株式会社ブレイン)

この記事に

開くトラックバック(0)

『AIアシスタント』というと、まず頭に浮かぶのは『Siri』ではないでしょうか。

AIアシスタント=音声アシスタント
音声認識技術と自然言語処理を組み合わせ、話し言葉による問いかけや要求に対し、適切に回答したり、動作したりする機能・サービス。多くスマートホン・タブレット型端末・スマートスピーカーなどに搭載される。ボイスアシスタント。音声エージェント。対話型アシスタント。対話型エージェント。会話型アシスタント。会話型エージェント。AIアシスタント。→パーソナルアシスタント2
[補説]アップル社のSiri(シリ)、マイクロソフト社のCortana(コルタナ)、グーグル社のGoogle Assistant(グーグルアシスタント)、NTTドコモのしゃべってコンシェル、LINE社のClova(クローバ)などがある。
[出典:デジタル大辞泉(小学館)]

『Siri』はiPhone、iPad、iMac等Appleのデバイスで使えるAIアシスタントです。
“Hey Siri”と話しかけると起動でき、音声だけでいろいろな操作をしたり、わからないことが聞けたり、使う環境にもよると思いますが、使いこなせば便利です。

iPhone4S以降の機種に搭載されていて、晩年のスティーブ・ジョブズの最後の作品とも言われています。

『Siri』の起源は1964年に開発された「ELIZA(イライザ)」という対話システムです。ELIZAは高性能な人工知能というわけではなく、コンピュータと人がまるで対話しているかのようにみせたシステムで、単純なプログラムを組み込むことで、定型的な返答でも、コンピュータと話しているかのようになります。

具体的には、人間が「お腹が空いた」とコンピュータに入力すると、コンピュータが「なぜお腹が空いたと言うの?」という具合に、ELIZAに記録されている定型文に相手の発言を取り入れ返すような単純な仕組みでできています。

「その質問、おもしろい?」「ほかのことを話しましょう」といったような話の展開を広げるような文言もあったようですが、そこに言葉の本質的な意味はありません。
これを原型として、人工知能が搭載された形でリリースされたのが『Siri』というわけです。

しかし、ELIZAが開発されてから約15年。1980年代の第二次AIブーム当時になっても、人工知能は人間と自然な対話ができるレベルではありませんでした。

2000年代になってからアメリカ政府主導の軍事機関、国防高等研究計画局(DARPA)により、戦場で兵士をサポートする目的で研究が進められ、この人工知能の実用化にむけてDARPAは、「SRI International」というスタンフォード大学が創設した非営利研究機関と連携し、「CALO(Cognitive Assistant that Learns and Organizes)」というプロジェクトを5年もの歳月をかけて進めました。その後、CALOプロジェクトはスタートアップ企業「Siri」として独立。2010年当初にたくさんのWebサービスと連携できるアプリとしてリリースされました。

Appleはこの「Siri」を買収し、音声認識や自然言語処理機能を付け加えた上で、iphone4sから「Siri」の機能を搭載しました。

テックメディア「BACKCHANNEL」に掲載されたApple幹部陣のインタビューによると、『Siri』「音声認識」「自然言語理解」「命令の実行」「返答」の4つから構成されています。

現在「AI(人工知能)」と呼ばれる分野には、自然言語処理、音声/画像認識、データマイニングなどさまざまな情報処理技術が含まれていますが、AI技術の核となるのが「機械学習」。Appleの公式サイトでは、『Siri』について「Appleが開発した機械学習テクノロジーが組み込まれている」と明言されており、『Siri』は正しく『AI』と言えるでしょう。

ここまで「Siri」について詳しく説明しましたが、最近、スマートスピーカーの存在感が増してきており、「Siri」以外の「AIアシスタント」が注目されています。

AmazonのAIアシスタント「Axela」を搭載するスマートスピーカー「Amazon Echo」は、米で大ヒットを記録。Googleは、AIアシスタント「Google アシスタント」に対応したスマートスピーカー「Google Home」を販売、今多くのCMが流れています。メッセージングアプリでおなじみのLINEは、AIアシスタント「Clova(クローバ)」に対応した「Clova Friends」「Clova Friends mini」「Clova WAVE」を販売しています。遅れをとったAppleから、「Siri」を搭載した「HomePod」が、米国、イギリス、オーストラリア、カナダ、フランス、ドイツで発売されていますが、スマートスピーカーとは言い難く、「Siri」と連動するスピーカーという位置付けと思われます。日本ではまだ発売されていません。

スマートスピーカー【smart speaker】
音声アシスタント機能を搭載した、スピーカー型の家庭用端末。音声による指示で音楽の再生や家電製品の制御、オンラインショッピングなどができる。質問に対し、サーチエンジンの結果から適切に回答する機能などもある。アマゾンエコーやグーグルホームなどがある。いずれもAI(人工知能)を利用するため、AIスピーカー、AIスマートスピーカーともいう。
[出典:デジタル大辞泉(小学館)]

【Amazon Echo】
Amazonが開発したスマートスピーカー。最初のモデルは2014年11月に発売されました。AIアシスタント「Alexa」に対応し、人間の音声コマンドを認識します。基本モデルのスマートスピーカー「Echo」のほか、スマートホームハブ内蔵の「Echo Plus」、外部スピーカーと接続可能な小型モデル「Echo Dot」、カメラを備えた「Echo look」、液晶モニターを備えた「Echo Spot」「Echo Show」などがあり、日本ではEcho、Echo Plus、Echo Dot、Echo Spotなどが発売中です。
イメージ 1
「Alexa」とできること
◆聴きたい曲のタイトルやアーティスト、ジャンル、ムード、年代を言うだけで音楽を再生できる。
◆ラジコやTuneInなどで様々なラジオ番組を聞くことができる。
◆Kindle本を読み上げることができる。
◆ニュースや情報、天気予報、上映中の映画や映画情報。
◆近くのカフェやお店などの場所や営業時間。
◆計算や単位の換算。
◆アラーム&タイマー。
◆買い物&やることリストの管理。
◆カレンダー、リマインダー。
◆照明、エアコン、TV、スマートロックなどのスマート家電をコントロール。
◆Alexa対応の赤外線コントローラーがあれば、赤外線リモコンのテレビやエアコン扇風機なども操作可能。
◆駅名でしりとりをしたり、ピカチュウや初音ミクとおしゃべりしたり、
豆しばが豆知識を教えてくれたり。
◆プライム対象商品の注文、商品の配送状況の確認。

【Google Home】
Googleが開発したスマートスピーカー。音声認識AI「Google アシスタント」に対応、「OK Google」もしくは「ねぇGoogle」の音声コマンドで起動。日本では標準モデルの「Google Home」と、小型モデルの「Google Home Mini」が入手可能。
イメージ 2
「Google アシスタント」とできること
◆今日の天気を教えてくれる
◆おはようのあいさつ
◆今日のスケジュールを教えてくる
◆アラーム、タイマーのセット
◆内蔵スピーカーから音楽を再生する
◆テレビに接続して、YouTube・Netflixなどの動画を再生できる
◆もちろん、ググれます
◆ヒマな時の話し相手にも
◆Google Home に自己紹介(最大6人の声を聞き分ける事ができる)
「OK Google, 私の名前は○○です」と話しかけると、「○○さんですね?」と聞き返してくれるので、そのまま返事をすればあなたの名前を認識し、返事をするときに名前を呼んでくれたりします。例えば、「OK Google, おはよう」と声をかければ、「おはようございます○○さん」と言ってくれます。

【Clova Friends, Clova Friends mini, Clova WAVE】
メッセージングアプリでおなじみのLINEが開発した音声認識AI「Clova」に対応するスマートスピーカーで、音声コマンドにより、「天気予報」「占い」のほか、LINEでメッセージを送ったり、送られてきたメッセージを読み上げることも可能。同社の定額音楽配信サービス「LINE MUSIC」とも連携。他のスマートスピーカーにはない特徴として、赤外線機能が挙げられます。赤外線リモコンに対応したテレビやエアコンなどを音声で操作することができます。また、Google Homeと異なりバッテリーを内蔵しているので、家の中である程度自由に動かして使うことも可能です。
イメージ 3
「Clova」とできること
◆LINE MUSICが提供する約4,700万の楽曲を楽しむことができます。
◆radikoと連携してラジオを楽しむことができます。
◆童話を朗読します。
◆LINEの無料通話の受発信ができます。
 ※Clova WAVEは対応していません。
◆LINE家族アカウントでのメッセージ送受信ができます。
◆天気予報や気象警報、注意報、台風情報などを教えてくれます。
◆ニュース情報を教えてくれます。
◆カレンダーサービスと連携したスケジュールを教えてくれます。
◆今日の運勢やラッキーアイテム、カラー、スポットを教えてくれます。
◆Wikipediaの内容を教えてくれます。
◆日本語を英語や中国語、韓国語に翻訳できます。
◆アラームやタイマーの設定ができます。
◆赤外線リモコン機能やインターネット通信により家電操作ができます。
◆Bluetoothペアリングの開始、解除ができます。
◆各機能の説明を音声で教えてくれます。

『スマートスピーカー』が、家庭の中心に入り込んでくると、私たちの生活にも大きく影響を与えると思われます。便利である反面、『スマートスピーカー依存症』のような人が現れる可能性が危惧されます。

参考
Ledge.ai:一番身近な人工知能Siri。人とシステムが対話できるまでの道のり
https://ledge.ai/siri_ai/

ITmedia Mobile:「Siri」と「AI」の関係を整理する
http://www.itmedia.co.jp/mobile/articles/1706/04/news012.html

Impress Watch:特集:スマートスピーカー
https://www.watch.impress.co.jp/smartspeaker/

Amazon:Alexaとできること
https://www.amazon.co.jp/b?node=5485773051


LINE Clova公式サイト
https://clova.line.me/

この記事に

開くトラックバック(0)

全4ページ

[1] [2] [3] [4]

[ 次のページ ]

本文はここまでですこのページの先頭へ
みんなの更新記事