ここから本文です
AI(人工知能)& IoT
AIとIoTについて、ともに学びましょう。

書庫AI

記事検索
検索

全2ページ

[1] [2]

[ 次のページ ]

ディープラーニング(deep learning)[深層学習]とは、「人間が自然に行うタスクをコンピュータに学習させる機械学習(machine learning)の手法のひとつ」で、人間の神経細胞(neuron)の仕組みを模したシステムであるニューラルネットワーク(neural network)がベースになっています。

 ニューラルネットワークを多層にして用いることで、データに含まれる特徴を段階的により深く学習することが可能になります。多層構造のニューラルネットワークに大量の画像、テキスト、音声データなどを入力することで、コンピュータのモデルはデータに含まれる特徴を各層で自動的に学習していきます。この構造と学習の手法がディープラーニング特有であり、これによりディープラーニングのモデルは極めて高い精度を誇り、時には人間の認識精度を超えることもあります。

【ディープラーニングの応用例】
◆自動運転
 一時停止標識や信号機のようなものを自動的に認識させています。さらに、歩行者検知にも使われており、事故の減少に役立てられています。
◆航空宇宙・防衛
 衛星から物体認識を行い、地上の部隊が安全なエリアにいるかどうかを判断するために使われています。
◆医療研究
 自動的にがん細胞を検出しています。UCLAの研究チームは、ディープラーニングの学習に必要な高次元のデータセットを作成する高精度な顕微鏡を構築し、正確にがん細胞を見つけ出しています。
◆産業オートメーション
 重機の周辺で業務を行う作業者の安全性向上に役立てられています。人や物が機械の危険域内に侵入した場合、これを自動的に検出することができます。
◆エレクトロニクス (CES)
 自動の音声翻訳に使われています。例えば、人の声に反応し、人の好みを学ぶことができるホームアシスタントデバイスには、ディープラーニングの技術が活用されています。

【ディープラーニングの仕組み】
 ディープラーニングの多くの手法に、ニューラルネットワークの構造が使われ、そうした背景からディープラーニングのモデルは、ディープニューラルネットワークとも呼ばれています。

イメージ 1

 従来のニューラルネットワークでは隠れ層はせいぜい2〜3程度でしたが、ディープニューラルネットワークは150もの隠れ層を持つこともありえます。
 ディープラーニングのモデルは、大規模なラベル付けされたデータとニューラルネットワークの構造を利用して学習を行います。これにより、データから直接特徴量を学習することができ、これまでのように手作業の特徴抽出は必要なくなりました。
 ディープニューラルネットワークで最もよく使われているのは、畳み込みニューラルネットワーク(CNNまたはConvNet)というネットワークです。
 畳み込みニューラルネットワークでは画像から直接特徴抽出を行います。数十から数百もの隠れ層により、1つの画像に含まれる数々の特徴を学習していきます。層が進むにつれて、より複雑な特徴を学習します。例えば、最初の隠れ層ではエッジ検出など単純な特徴からスタートして、最後の層ではより複雑な特徴、特に認識したい物体の形状の学習へと進んでいきます。

【機械学習とディープラーニングから最適な手法を選ぶ】
 機械学習には幅広い手法とモデルがあり、用途や処理するデータサイズ、解決したい課題のタイプに合わせて選択することができます。

 機械学習は、要求される結果により以下のように分類されます。
◆教師あり学習
入力とそれに対応すべき出力(人間の専門家が訓練例にラベル付けすることで提供されることが多いのでラベルとも呼ばれる)を写像する関数を生成する。
◆教師なし学習
入力のみ(ラベルなしの例)からモデルを構築する。
◆半教師あり学習
ラベルありの例とラベルなしの例をどちらも扱えるようにしたもので、それによって近似関数または分類器を生成する。
◆強化学習
周囲の環境を観測することでどう行動すべきかを学習する。行動によって必ず環境に影響を及ぼし、環境から報酬という形でフィードバックを得ることで学習アルゴリズムのガイドとする。
◆トランスダクション
(トランスダクティブ推論)観測された具体的な(訓練)例から具体的かつ固定の(テスト)例の新たな出力を予測しようとする。
◆マルチタスク学習
関連する複数の問題について同時に学習させ、主要な問題の予測精度を向上させる。(ウィキペディアより)

 一方、ディープラーニングを成功させるには、データを高速で処理するためのGPUだけでなく、モデルを学習させるための大量のデータ(数千もの画像)が必要となります。

 機械学習かディープラーニングを選ぶときは、まず高性能なGPUと大量のラベル付けされたデータがあるかどうかを確認する必要があります。もしどちらかが欠けている場合、ディープラーニングではなく機械学習が適当と言えるでしょう。ディープラーニングは一般的に機械学習より複雑であるため、信頼できる結果を得るには少なくとも数千の画像が必要となります。より高性能なGPUがあれば、そうした大量の画像の学習に必要な時間はさらに短縮していくことができます。

【ディープラーニングモデルの作成、学習方法】
 ディープラーニングを使用した物体認識には下記の3つの手法がよく使われています。
◆ゼロから学習する
 ディープネットワークをゼロから学習するには、大量のラベル付けされたデータを集め、特徴量を学習しモデル化するためのネットワークを設計する必要があります。この方法は、新しい分野での応用や、出力するカテゴリ数が多い場合には有効ですが、大量のデータと学習時間が必要であることから、使用頻度はそれほど高くありません。通常、こうしたタイプのネットワークの学習には、数日から数週間といった長い時間を要します。
◆転移学習
 多くのディープラーニングの応用では、学習済みモデルの微調整を行うタイプのアプローチとして、転移学習が利用されています。この転移学習では、AlexNetやGoogLeNetといった既存の学習済みのネットワークに対して、そのネットワークでは事前には学習されていないクラスを含むデータを与えて学習させます。その場合、学習済みのネットワークには若干の修正が必要となりますが、ネットワークの学習後には本来の「1000種類のカテゴリへの分類」の代わりに「犬か猫か」といった新しいタスクを行わせることができるようになります。この手法には、ゼロからネットワークを学習させる場合と比較して必要なデータ数がはるかに少なくて済むという利点があり(何百万ではなく数千の画像)、計算時間は数分から数時間程度に短縮されます。
◆特徴抽出
 ディープラーニングのより専門的な手法として、ネットワークを特徴抽出器として使用する方法があります。ネットワークのすべての層は画像からある種の特徴量を抽出する役割を持っているため、推論の任意の段階で特徴量を取り出すことが可能です。取り出した特徴量は、サポートベクターマシンなどの機械学習モデルへの入力として使用することができます。

【GPUでディープラーニングモデルを高速化】
 ディープラーニングモデルの学習には、数日から数週間といった長い時間を要することがありますが、GPUを使うことで処理を大幅に高速化できます。

【GPU(Graphics Processing Unit)】
 リアルタイム画像処理に特化した演算装置ないしプロセッサ。グラフィックコントローラなどと呼ばれる、コンピュータが画面に表示する映像を描画するための処理を行うICから発展した。特にリアルタイム3DCGなどに必要な、定形かつ大量の演算を並列にパイプライン処理するグラフィックスパイプライン性能を重視している。現在の高機能GPUは高速のVRAMと接続され、グラフィックスシェーディングに特化したプログラマブルな演算器(シェーダーユニット)を多数搭載している。
(ウィキペディアより)

出典
MathWorks:ディープラーニング これだけは知っておきたい3つのこと
https://jp.mathworks.com/discovery/deep-learning.html

この記事に

開くトラックバック(0)

『BakeryScan』

『BakeryScan(ベーカリースキャン)』は、トレイ上の複数のパンの値段と種類をカメラで一括識別するシステムです。『AI-Scan』という画像認識エンジンを搭載。株式会社ブレインが販売しているものです。

久しぶりに行った近所のパン屋さんに導入されていました。

イメージ 1

パンのトレーをレジのところに置くと、瞬時にスキャンして、レジにパンの画像と種類、単価及び合計金額が表示され、レジもセルフレジになっています。

従来、3人の店員が処理しきれず、長い列になっていましが、今は2人の店員で、格段に処理が早くなっていました。

AIの識別は100%ではないので、誤った認識をした場合は、店員が選択し直します。

イメージ 2

画像認識というだけでは「AI」とは言えないのですが、修正データはサーバーに蓄積、機械学習により認識精度をさらに向上させるということですので、省人化、効率化の例として、正しくベストな『AI』適用例だと思います。

人間でも認識間違いはありますので、ある面、既に人間を越えているともいえますが、最終判断は人間に任されているので成り立っているもで、全てを『AI』に任せるのは危険です。

写真出展:第3回スマートSME(中小企業)研究会資料(株式会社ブレイン)

この記事に

開くトラックバック(0)

『AIアシスタント』というと、まず頭に浮かぶのは『Siri』ではないでしょうか。

AIアシスタント=音声アシスタント
音声認識技術と自然言語処理を組み合わせ、話し言葉による問いかけや要求に対し、適切に回答したり、動作したりする機能・サービス。多くスマートホン・タブレット型端末・スマートスピーカーなどに搭載される。ボイスアシスタント。音声エージェント。対話型アシスタント。対話型エージェント。会話型アシスタント。会話型エージェント。AIアシスタント。→パーソナルアシスタント2
[補説]アップル社のSiri(シリ)、マイクロソフト社のCortana(コルタナ)、グーグル社のGoogle Assistant(グーグルアシスタント)、NTTドコモのしゃべってコンシェル、LINE社のClova(クローバ)などがある。
[出典:デジタル大辞泉(小学館)]

『Siri』はiPhone、iPad、iMac等Appleのデバイスで使えるAIアシスタントです。
“Hey Siri”と話しかけると起動でき、音声だけでいろいろな操作をしたり、わからないことが聞けたり、使う環境にもよると思いますが、使いこなせば便利です。

iPhone4S以降の機種に搭載されていて、晩年のスティーブ・ジョブズの最後の作品とも言われています。

『Siri』の起源は1964年に開発された「ELIZA(イライザ)」という対話システムです。ELIZAは高性能な人工知能というわけではなく、コンピュータと人がまるで対話しているかのようにみせたシステムで、単純なプログラムを組み込むことで、定型的な返答でも、コンピュータと話しているかのようになります。

具体的には、人間が「お腹が空いた」とコンピュータに入力すると、コンピュータが「なぜお腹が空いたと言うの?」という具合に、ELIZAに記録されている定型文に相手の発言を取り入れ返すような単純な仕組みでできています。

「その質問、おもしろい?」「ほかのことを話しましょう」といったような話の展開を広げるような文言もあったようですが、そこに言葉の本質的な意味はありません。
これを原型として、人工知能が搭載された形でリリースされたのが『Siri』というわけです。

しかし、ELIZAが開発されてから約15年。1980年代の第二次AIブーム当時になっても、人工知能は人間と自然な対話ができるレベルではありませんでした。

2000年代になってからアメリカ政府主導の軍事機関、国防高等研究計画局(DARPA)により、戦場で兵士をサポートする目的で研究が進められ、この人工知能の実用化にむけてDARPAは、「SRI International」というスタンフォード大学が創設した非営利研究機関と連携し、「CALO(Cognitive Assistant that Learns and Organizes)」というプロジェクトを5年もの歳月をかけて進めました。その後、CALOプロジェクトはスタートアップ企業「Siri」として独立。2010年当初にたくさんのWebサービスと連携できるアプリとしてリリースされました。

Appleはこの「Siri」を買収し、音声認識や自然言語処理機能を付け加えた上で、iphone4sから「Siri」の機能を搭載しました。

テックメディア「BACKCHANNEL」に掲載されたApple幹部陣のインタビューによると、『Siri』「音声認識」「自然言語理解」「命令の実行」「返答」の4つから構成されています。

現在「AI(人工知能)」と呼ばれる分野には、自然言語処理、音声/画像認識、データマイニングなどさまざまな情報処理技術が含まれていますが、AI技術の核となるのが「機械学習」。Appleの公式サイトでは、『Siri』について「Appleが開発した機械学習テクノロジーが組み込まれている」と明言されており、『Siri』は正しく『AI』と言えるでしょう。

ここまで「Siri」について詳しく説明しましたが、最近、スマートスピーカーの存在感が増してきており、「Siri」以外の「AIアシスタント」が注目されています。

AmazonのAIアシスタント「Axela」を搭載するスマートスピーカー「Amazon Echo」は、米で大ヒットを記録。Googleは、AIアシスタント「Google アシスタント」に対応したスマートスピーカー「Google Home」を販売、今多くのCMが流れています。メッセージングアプリでおなじみのLINEは、AIアシスタント「Clova(クローバ)」に対応した「Clova Friends」「Clova Friends mini」「Clova WAVE」を販売しています。遅れをとったAppleから、「Siri」を搭載した「HomePod」が、米国、イギリス、オーストラリア、カナダ、フランス、ドイツで発売されていますが、スマートスピーカーとは言い難く、「Siri」と連動するスピーカーという位置付けと思われます。日本ではまだ発売されていません。

スマートスピーカー【smart speaker】
音声アシスタント機能を搭載した、スピーカー型の家庭用端末。音声による指示で音楽の再生や家電製品の制御、オンラインショッピングなどができる。質問に対し、サーチエンジンの結果から適切に回答する機能などもある。アマゾンエコーやグーグルホームなどがある。いずれもAI(人工知能)を利用するため、AIスピーカー、AIスマートスピーカーともいう。
[出典:デジタル大辞泉(小学館)]

【Amazon Echo】
Amazonが開発したスマートスピーカー。最初のモデルは2014年11月に発売されました。AIアシスタント「Alexa」に対応し、人間の音声コマンドを認識します。基本モデルのスマートスピーカー「Echo」のほか、スマートホームハブ内蔵の「Echo Plus」、外部スピーカーと接続可能な小型モデル「Echo Dot」、カメラを備えた「Echo look」、液晶モニターを備えた「Echo Spot」「Echo Show」などがあり、日本ではEcho、Echo Plus、Echo Dot、Echo Spotなどが発売中です。
イメージ 1
「Alexa」とできること
◆聴きたい曲のタイトルやアーティスト、ジャンル、ムード、年代を言うだけで音楽を再生できる。
◆ラジコやTuneInなどで様々なラジオ番組を聞くことができる。
◆Kindle本を読み上げることができる。
◆ニュースや情報、天気予報、上映中の映画や映画情報。
◆近くのカフェやお店などの場所や営業時間。
◆計算や単位の換算。
◆アラーム&タイマー。
◆買い物&やることリストの管理。
◆カレンダー、リマインダー。
◆照明、エアコン、TV、スマートロックなどのスマート家電をコントロール。
◆Alexa対応の赤外線コントローラーがあれば、赤外線リモコンのテレビやエアコン扇風機なども操作可能。
◆駅名でしりとりをしたり、ピカチュウや初音ミクとおしゃべりしたり、
豆しばが豆知識を教えてくれたり。
◆プライム対象商品の注文、商品の配送状況の確認。

【Google Home】
Googleが開発したスマートスピーカー。音声認識AI「Google アシスタント」に対応、「OK Google」もしくは「ねぇGoogle」の音声コマンドで起動。日本では標準モデルの「Google Home」と、小型モデルの「Google Home Mini」が入手可能。
イメージ 2
「Google アシスタント」とできること
◆今日の天気を教えてくれる
◆おはようのあいさつ
◆今日のスケジュールを教えてくる
◆アラーム、タイマーのセット
◆内蔵スピーカーから音楽を再生する
◆テレビに接続して、YouTube・Netflixなどの動画を再生できる
◆もちろん、ググれます
◆ヒマな時の話し相手にも
◆Google Home に自己紹介(最大6人の声を聞き分ける事ができる)
「OK Google, 私の名前は○○です」と話しかけると、「○○さんですね?」と聞き返してくれるので、そのまま返事をすればあなたの名前を認識し、返事をするときに名前を呼んでくれたりします。例えば、「OK Google, おはよう」と声をかければ、「おはようございます○○さん」と言ってくれます。

【Clova Friends, Clova Friends mini, Clova WAVE】
メッセージングアプリでおなじみのLINEが開発した音声認識AI「Clova」に対応するスマートスピーカーで、音声コマンドにより、「天気予報」「占い」のほか、LINEでメッセージを送ったり、送られてきたメッセージを読み上げることも可能。同社の定額音楽配信サービス「LINE MUSIC」とも連携。他のスマートスピーカーにはない特徴として、赤外線機能が挙げられます。赤外線リモコンに対応したテレビやエアコンなどを音声で操作することができます。また、Google Homeと異なりバッテリーを内蔵しているので、家の中である程度自由に動かして使うことも可能です。
イメージ 3
「Clova」とできること
◆LINE MUSICが提供する約4,700万の楽曲を楽しむことができます。
◆radikoと連携してラジオを楽しむことができます。
◆童話を朗読します。
◆LINEの無料通話の受発信ができます。
 ※Clova WAVEは対応していません。
◆LINE家族アカウントでのメッセージ送受信ができます。
◆天気予報や気象警報、注意報、台風情報などを教えてくれます。
◆ニュース情報を教えてくれます。
◆カレンダーサービスと連携したスケジュールを教えてくれます。
◆今日の運勢やラッキーアイテム、カラー、スポットを教えてくれます。
◆Wikipediaの内容を教えてくれます。
◆日本語を英語や中国語、韓国語に翻訳できます。
◆アラームやタイマーの設定ができます。
◆赤外線リモコン機能やインターネット通信により家電操作ができます。
◆Bluetoothペアリングの開始、解除ができます。
◆各機能の説明を音声で教えてくれます。

『スマートスピーカー』が、家庭の中心に入り込んでくると、私たちの生活にも大きく影響を与えると思われます。便利である反面、『スマートスピーカー依存症』のような人が現れる可能性が危惧されます。

参考
Ledge.ai:一番身近な人工知能Siri。人とシステムが対話できるまでの道のり
https://ledge.ai/siri_ai/

ITmedia Mobile:「Siri」と「AI」の関係を整理する
http://www.itmedia.co.jp/mobile/articles/1706/04/news012.html

Impress Watch:特集:スマートスピーカー
https://www.watch.impress.co.jp/smartspeaker/

Amazon:Alexaとできること
https://www.amazon.co.jp/b?node=5485773051


LINE Clova公式サイト
https://clova.line.me/

この記事に

開くトラックバック(0)

シンギュラリティ(Singularity)とは、技術的特異点(Technological Singularity)。テクノロジーの加速度的な進化、中でも人工知能(AI)の急速な発達で、人間の予測や想像を超えるほど社会が変容してしまう時期が来るという未来予測を指しています。

この概念はヴァーナー・ヴィンジとレイ・カーツワイルにより提示され、これまでの考え方がまったく適用できなくなる時期を指し、それは2045年ごろではないかと予測、「2045年問題」と呼ばれています。

シンギュラリティが訪れ、その時、人工知能が社会の運営に大きく関わるようになっていると、人間の想像もしなかったような状態に社会を変える可能性があります。それが、人間にとって大変なマイナスになるかもしれないと、AIの進歩を恐れる人もいます。

一方、カーツワイルの予測を「そんなにうまくいくはずがない」と懐疑的に見る人々もいます。特にAIに精通した人ほど、その難しさを日常的に肌で感じているせいなのか、そう考える傾向が強いようです。しかし、この時代に生きる私たちにとって大事なのは、シンギュラリティが起こるか否かではなく、そこへ向かってテクノロジーがエクスポネンシャル(指数関数的)に発展していくことは間違いないということです。

2020年代にはコンピュータの集積度が人間の脳を超えることはほぼ間違いないであろうと予見されています。日本のスーパーコンピュータ開発の第一人者である齊藤元章氏は、『エクサスケールの衝撃』(PHP研究所)という著書の中で、そのポイントのことを「プレ・シンギュラリティ(前特異点)」と呼んでいます。

プレ・シンギュラリティまで、あと十数年。本格的なシンギュラリティまでは、あと約30年。人類史に前例のない加速度で起こるこの激変期、具体的にどんなことが起こるのか、私たちは何をどのように考え、どのように対応していかねければならないかを、考えていかなければなりませんね。

アメリカの著名な起業家であるピーター・ディアマンディスは、物事がエクスポネンシャルに成長するとき、その多くのケースで「D」の頭文字を持つ次の6つの事象が連鎖反応的に起こると言っています。

1. デジタル化(Digitalization)
2. 潜行(Deception)
3. 破壊(Disruption)
4. 非収益化(Demonetization)
5. 非物質化(Dematerialization)
6. 大衆化(Democratization)

ディアマンディスは、こんなこともいっています。 「直線的な思考しかできない者にとって、6つのDは6の死に神(Death)にほかならない」

なんとも不吉な言葉ですが、実際、この展開を読むことができずに市場から撤退した企業や業種がいくつもあるのですから、決して大袈裟(おおげさ)な話ではなく、エクスポネンシャルな進化への理解は、シンギュラリティ直前の時代を生きる私たちにとって、必要不可欠な基礎知識です。


参考
PCNET『使える!情シス三段用語辞典17「シンギュラリティ」』
G+幻冬舎plus「AIが人類を超える」どころじゃない! こんなに凄い「シンギュラリティ」の衝撃。『なぜすべての技術は儲からなくなるのか?』

この記事に

開くトラックバック(0)

『コグニティブ』は『コグニティブ・コンピューティング』のことで、辞書によると、

コグニティブ・コンピューティング(cognitive computing)】
人間のように経験を通じて学習し、情報処理をする能力を備えたコンピューターシステム。大量のデータから相関関係を見出し、仮説を立て、推論や意思決定を行う、自然言語処理にすぐれた人工知能システムを指す。米国IBM社の開発したワトソンなど。(goo辞書より)

IBM Watsonは、2011年に米国の人気クイズ番組「ジョパティ!」で、本や百科事典など2億ページ分のテキストデータ(70GB程度、約100万冊の書籍に相当)の知識を携え、人間のクイズチャンピオンに勝利した有名なAIだと思いますが、IBMはWatsonを人工知能(AI)と呼ばず、コグニティブ・コンピューティング(cognitive computing)と呼んでいます。

イメージ 1

『コグニティブ・コンピューティング(cognitive computing)』『人工知能(AI)』と何が違うのか?

IBM基礎研究所のバイスプレジデント、ダリオ・ギル氏によると、

Watson(コグニティブ)
「人がより良い作業を行えるようにサポートするもの」:人が主体

人工知能(AI)
「人が行う作業をコンピュータが行うもの」:コンピュータが主体

の違いがあるとされています。

言わば、Watsonは、「汎用人工知能」AGI(Artifical General Intelligence)を目指したものと言うことが出来るのではないでしょうか。

IBM Watsonは自然言語処理をベースにしたもで、人との対話やシステムに蓄積された専門知識を利用して人間の意思決定支援を行います。日本では、みずほ銀行がコールセンター業務のオペレーター支援に採用するなど、金融機関向けのプロジェクトが進んでいます。

東大はIBMと共同で、がんに関連する約2千万件の論文をWatsonに学習させ、女性患者のがんに関係する遺伝子情報をWatsonに入力したところ、急性骨髄性白血病のうち、診断や治療が難しい「二次性白血病」という特殊なタイプだとの分析結果がわずか10分で出たとのこと。Watsonは治療法の変更を提案し、臨床チームが別の抗がん剤を採用。その結果、女性は数ヶ月で回復して退院し、通院治療を続けているそうです。(引用:2016.8.5 産経ニュース)

IBMは日本のソフトバンクとも、Pepperの開発で提携しており、Watson内蔵のPepperは、画像やテキストからソーシャルメディア、ビデオに到るまで幅広いデータソースを利用しており、これはロボットに「人間と同じやり方で ― 五感、学習、体験 ― 世界を理解する能力を与えるものだということです。
(引用:2016.1.7 TechCrunch Japan)

米IBM基礎研究所のバイスプレジデントで、ディープラーニング(深層学習)の応用やSyNAPSEチップの研究開発を牽引するDario Gil氏によれば、「日本の強みであるロボティクスとコグニティブシステムを組み合わせることで、優れた効果を発揮できるだろう。2020年の東京オリンピックでは、東京中を自律した自動車が走っているかもしれないが、これにWatsonがどう貢献できるのかということを考えていきたい」とのこと。(引用:2015.10.8 ZDNet Japan)

参考図書
日本経済新聞社:AI(人工知能)まるわかり

この記事に

開くトラックバック(0)

全2ページ

[1] [2]

[ 次のページ ]

本文はここまでですこのページの先頭へ
みんなの更新記事