ここから本文です
AI(人工知能)& IoT
AIとIoTについて、ともに学びましょう。
 本格的に人工知能の開発を行うには、人工知能のアルゴリズムを考えたり、既存のアルゴリズムを理解したりすることが必要で、また、数学的な知識を学習する必要がありますが、人工知能はプログラムの集合体で、そのソースコードはプログラミング言語で記述されています。プログラミング言語には得意・不得意があるため、どのプログラミング言語を選択するかが重要です。人工知能の開発に使われる主なプログラミング言語を紹介します。

【python】
 人工知能の開発で一番使われている言語。Pythonの特徴は文法を極力単純化することでプログラマーの負担を減らし実装速度を向上させている。誰が書いてもだいたい同じようなソースコードになり、わかりやすいという特徴もある。pythonは完全にフリーソフトかつオープンソースであり、インターネット上から無料で標準ライブラリやサードパーティー性の大規模なツール群が用意されており、様々な分野で利用可能。人工知能の開発に役立つライブラリも登場してきている。

【C】
 JAVAなどのより世代の新しい言語の登場後、存在感が低下したといわれることもあるC言語だが、人工知能の開発ではむしろJavaよりも存在感がある。メモリやCPUなどのハードウェアリソースを意識して記述する難しさがあるものの、限られたハードウェアリソースを有効活用しなくてはならない組込みシステムなどではむしろメリットとなる。また、ハードウェアリソースを有効活用するため、同じ機能を実行するソースコードを書いた際、pythonやJAVAよりも圧倒的に実行速度が速い、という特徴もある。

【C++】
 C言語にオブジェクト指向という概念を追加したC言語の拡張言語。JAVAを初めて、Ruby、Perl、C言語と互換性があり、C++単体で使われるというよりも、C言語と組み合わせて使われることが多い。人工知能の開発においても、C/C++での実装が多い。

【JavaScript】
 Webアプリ開発では外せないプログラミング言語であるJavaScriptによる人工知能の開発例もある。JavaScriptはよくJAVAと混同されるが、まったく異なるプログラミング言語。実際、開発当初はLiveScriptと呼ばれていた。JavaScriptの実装例としては一部の動画サイトなどがあげられる。ブラウザーで出された操作指示がサーバに即時反映される、という特徴がある。さらに、Webブラウザー上で動くので、利用者の環境への依存度が低いというメリットもある。弱点は、Webブラウザーでいろんな人に使ってもらえる人工知能を作ろうとすると、それだけ必要なハードウェアリソースが増えていくこと。

【JAVA】
 JAVAの特徴は汎用性。30億のデバイス上で走るJAVA、というスローガンもあったが、Windowsはもちろん、LinuxやUNIX、macOSやandroid上でも動作する。主要なOSでJAVAが動かないのは、iPhoneに採用されているiOSくらい。つまり、JAVAで構築すれば、様々なデバイス上で利用できる便利な人工知能が開発できることになる。また、JAVAには一つ大きなデメリットがあり、それはJAVA仮想マシン(Java VM、JVM)の存在。多くのアプリケーションは、OSの上で実行されるが、JAVAで開発されたアプリケーションはJAVA仮想マシン上で動く。つまり、JAVA仮想マシンを展開しなければJAVAで開発されたアプリケーションは動作しません。普通にアプリケーションを動かすだけでなく、JAVA仮想マシンを展開するためにもハードウェアリソースを割く必要があり、人工知能の開発言語としては、その点がマイナスポイントになっている。

【R】
 R言語は統計解析向けのプログラミング言語。オープンソースかつフリーソフトで、かつ統計解析向けプログラミング言語として非常に充実した機能を持っており、データサイエンスの分野では絶対に外せない言語の一つとなっている。データサイエンスとは、簡単に言うと、ビックデータを解析しビジネスなどに役立つ新たなナレッジを生み出す作業。その作業ために必須なのが統計であり、そして統計を取り扱う際、最良のプログラミング言語なのがR言語。

【Julia】
 Julia は2009年に開発が始まり、2012年にオープンソースとして公開された比較的、新しいプログラミング言語。Juliaの特徴は処理速度に力を入れており、動的言語の中では屈指の速さを誇っているが、コンパイルが不要な代わりに、コンパイル時に行われるコード変換などの処理が実行時に行われるため、処理が遅くなってしまうという欠点があり、処理速度は、C言語の約50%。とは言え、Pythonだと10倍かそれ以上かかるので、Juliaの速さは桁違い。また、浮動小数点数計算、線型代数学、高速フーリエ変換、正規表現照合のライブラリなども用意され、機械学習や人工知能開発を意識して開発されたのは明らか。

AIで使われる言語の歴史を知るには、下記のweb記事がお勧め。



参考:
ITプロパートナーズ :人工知能はどのプログラミング言語で作成するのが良いのか?(https://itpropartners.com/blog/11534/)

この記事に

開くトラックバック(0)

【チューリングテスト】
  チューリングテスト(Turing test)とは、アラン・チューリングによって考案された、ある機械が知的かどうか(人工知能であるかどうか)を判定するためのテストで、人間の判定者が、別の人間と機械に対して通常の言語での会話を行う。このとき人間も機械も人間らしく見えるように対応。参加者はそれぞれ隔離されており、判定者は、機械の言葉を音声に変換する能力に左右されることなく、その知性を判定するために、会話はたとえばキーボードとディスプレイのみといった、文字のみでの交信に制限。判定者が、機械と人間との確実な区別ができなかった場合、この機械はテストに合格というテスト。
イメージ 1
チューリングテストの「一般的解釈」。質問者であるプレイヤーCは、
AとBどちらのプレイヤーがコンピュータでどちらが人間か回答しなければならない。
質問者が回答のために使えるのは、文字上の質問に対する返事に限られる。
(ウィキペディアより)

  チューリングの1950年の論文『計算する機械と知性』では、9つの反論が想定されており、論文が初めて発表されてから出された、人工知能に関する主要な議論がこの中にすべて含まれている。

  2014年6月7日、ロンドンのテストに「13歳の少年」の設定で参加したロシアのスーパーコンピューターが、30%以上の確率で審査員らに人間と間違われて史上初めての「合格者」となった。

【中国語の部屋】
  ジョン・サールは、1980年の論文『心・脳・プログラム』(Minds, Brains, and Programs)の中でチューリングテストに対する反論をした。これは「中国語の部屋」として知られる。英語しかわからない人が部屋にいる。その部屋には、中国語がわからなくても、中国語の文字を書いてあるとおりに置き換えると、中国語の受け答えができてしまう完璧な説明書がある。つまり、この部屋の人は、英語しか分からないが、中国語の質問に中国語で答えることができる。ということは、中国語の受け答えができるだけでは、中国語が分かるとは限らないことになる。同様に、まるで知能があるような受け答えができるかを調べるというチューリングテストに合格しても本当に知能があるかは分からない。単に理解していない記号を処理しているだけでも、以前紹介した「ELIZA」のようなソフトはチューリングテストに合格できる。理解していないのなら、人間がやっているのと同じ意味で「思考」しているとはいえない。したがって、チューリングテストは機械が思考できるということを証明するものではないという結論。

参考
ウィキペディア:チューリングテスト
人工知能学会: 人工知能の話題「チューリングテストと中国語の部屋」
https://www.ai-gakkai.or.jp/whatsai/AItopics3.html

この記事に

開くトラックバック(0)

 10月10日グーグルは、AI機能を強化したスマートフォン「Google Pixel 3」(5.5インチ)と「Google Pixel 3 XL」(6.3インチ)を、11月1日に日本で発売することを発表しました。

イメージ 1

 特にAI機能が強化されており、端末の側面を握ると「Google Assistant」が起動。また「Pixel Stand」に乗せた状態で話しかけると、スマートスピーカのように使うこともでき、店内などのBGMを検出すると、その楽曲名を表示する「Now Playing」機能も搭載しています。

 人間のように会話できる音声AI技術「Google Duplex」をベースとした「Call Screen」機能を実装。電話着信時にCall Screen機能を選択すると、AIに応対させながら、ユーザーが引き継ぐか定型文で返答させるかを選択できます。「あなたは誰か」「後ほど掛け直します」といった選択肢から必要に応じてAIに喋らせることができるほか、迷惑電話であれば着信拒否にすることもできます。なお、会話はスクリーン上に表示され、ユーザー側で逐次確認できます。

 カメラは、AIによる補正を強化。被写体が遠くにある場合は、火星探査の技術を応用した「超解像ズーム」を使って、鮮明な望遠写真を撮影できるといいます。これは、写真を複数枚合成して実現しているとのこと。また、機械学習を用いた「夜景モード」機能を搭載。
 「トップショット」機能では、写真を撮るとAIがシャッターを押す前後の画像を解析して、写っている人たちが目を開いて笑顔でカメラを向いた瞬間をレコメンドしてくれ、シャッターを押すタイミングがズレてしまっても、複数の写真から最適な1枚を選んでくれます。
 「フォトブースモード」を選ぶと、笑顔などをAIが検出して自撮り写真を撮影できるため、シャッターボタンに指を伸ばす必要がありません。
 「ポートレートモード」では、iPhone XSなどと同様に、撮影後に背景をぼかしたり焦点をズラしたりできます。さらに、被写体だけに色を残して、背景を白黒にするといった加工も可能です。このほか、動き回る仔犬や子どもなどを動画で撮影する際も、「モーションオートフォーカス」によって、ピントを自動で合わせてくれるということです。

 カメラで撮影した被写体を識別し、似た商品を検索できる機能「Google Lens」も日本語で利用でき、目の前のものを調べたい時に、Pixel 3のカメラを向けて画面を長押しすることで、レストランのメニューを翻訳したり、よく似た洋服を探したり、植物について調べたりすることができます。名刺やメールアドレスにカメラを向けて、「連絡先の追加」をするといったことも可能です。

 高精度なAR技術「Playground」では、3Dキャラクターとカメラが撮影している実際の風景をリアルタイムで合成します。例えば、スクリーン内で動き回るマーベルのキャラクターと一緒に自撮りすることもできます。

 AIが得意とするところは、画像認識と自然言語処理ですが、その両方をうまく利用していると思います。手で打ち込む時代は過ぎ去ろうとしているのかもしれません。


参考
CNET Japan:グーグルの「Pixel 3」がついに日本発売へ--カメラが大幅進化、ドコモらも取扱い
https://japan.cnet.com/article/35126768/?tag=rightMain
CNET Japan:グーグル、新型スマホ「Pixel 3」とタブレット「Pixel Slate」発表--「Home Hub」も
https://japan.cnet.com/article/35126750/

この記事に

開くトラックバック(0)

AIで何が出来るかを知るために、富士通のAI[Zinrai]の機能をwebページよりまとめてみました。主だったものは網羅していると思います。参考にして、AIで何がしたいか、何ができるか、考えてみてはどうでしょうか。

◆文書翻訳
ビジネス文書の翻訳もAIにおまかせ
入力したテキストをZinraiが翻訳。ニューラル機械翻訳により瞬時に自然な翻訳を実現。
イメージ 1

【特徴】
・プロの翻訳家レベルの訳質が得られるニューラル機械翻訳
・ユーザー辞書、翻訳メモリにより翻訳結果をカスタマイズ
・ビジネスの効率化を支援
・テキスト翻訳にだけでなく、Outlook、Skypeへの組み込み、Office、PDFファイルの丸ごと翻訳で、ビジネスの効率化を支援。
・翻訳データは保持せず削除
・対応言語:日本語と英語に対応。
・様々な端末に対応:PC、スマートフォン、タブレットなど。

【活用イメージ】
・社内ビジネス文書の翻訳
・コミュニケーションの活性化

◆手書文字列認識
高精度な手書き文字認識により業務高度化を実現
フリーピッチの手書き文字列を認識。
イメージ 2

【特長】
・異種深層学習モデルで文字の区切りを正しく判別
・言語モデルの活用による認識精度の向上

【活用イメージ】
・宛て名の読み取り

◆FAQ検索
入力した質問文に対して、FAQデータと学習済みモデルから適切な回答を検索
質問文に対して、あらかじめ学習した対応履歴から適切な回答を検索し、確度の高い順に表示。
イメージ 3

【特長】
・自然文入力
・確度付き回答
・継続学習による精度向上

【活用イメージ】
・コールセンター
・公開FAQ

◆対話型Bot for FAQ
対話を繰り返して引き出した情報から、適切な回答を導き出す
普通の言葉で対話していくなかで、問い合わせに対して適切な回答を見つける。
イメージ 4

【特長】
・自然文による対話
・継続学習による回答精度向上
・様々な端末に対応

活用イメージ
・コールセンター・ヘルプデスク

◆画像認識
事前に学習させたモデルを使用した優れた画像認識
画像から物体やシーンなどの情報を認識。画像分類、シーン分類、物体認識の3種類がある。
イメージ 5

web上で体験デモを試せます。デモを試した結果。
イメージ 6
任意の画像も試せます。

【特長】
・リアルタイム
・すぐに利用可能
■画像分類
物体が写った画像から何が写っているかを推定。
■シーン分類
風景が写った画像からどのような情景が写っているかを推定。
■物体認識
複数の物体が写った画像から、それぞれ何が写っているかを推定。
・様々な端末に対応

【活用イメージ】
・写真管理

◆手書文字認識
ディープラーニング技術により、高水準の認識精度を実現
手書き文字が書かれた画像から、文字を認識。
イメージ 7

【特長】
・リアルタイム
・クセのある文字を推定
・様々な端末に対応

【活用イメージ】
・申し込み書類
・アンケート
・領収書の宛名
・宅配便の宛名

◆音声テキスト化
音声を高い精度で文字に変換
認識した音声を文字(テキストデータ)に変換。
イメージ 8

【特長】
・高速かつ高精度
・多数の新語や固有名詞を含む業務にも適用可能
・雑音のある環境でも変換
・対応言語:日本語と英語
・長い音声も変換可能
・様々な端末に対応

【活用イメージ】
・コールセンター
・店舗や病院
・自動応答システム
・プレゼン・スピーチの文字起こし
・会議録
・アプリ操作

◆音声合成
人間らしい自然な合成音声
入力した文字を音声に変換。また、音声変換時に参照する単語辞書に専門用語などを登録することで、特殊な言葉をより正確に発音。
イメージ 9

【特長】
・リアルタイム
・対応言語、声の種類
 日本語と英語
 日本語は男声2種、女声2種
 英語は女声1種
・表音文字列生成機能
・辞書管理機能
・様々な端末に対応

【活用イメージ】
・構内放送
・音声ガイダンス
・自動応答システム

◆感情認識
話している人の声から満足度を定量化
入力された音声データを解析、声の高さとその変化パターンから満足度を推定。推定結果は満足度を数値化。満足度スコアは1秒単位で推定。また、満足・不満足の音声区間(時間)を推定、いつ満足していたか、いつ不満足だったかを検証。
イメージ 10

【特長】
・声の高さとその変化パターンから推定した満足度を数値化
・満足度スコアにより、満足/不満足の切り分けが容易
・1秒ごとに満足度スコアを推定
・様々な端末に対応

【活用イメージ】
・コールセンター

◆自然文解析
自然文から必要な情報を取得
自然文を解析し、文章から人名や地名などの固有名を抽出。また、文章の文脈を解析し、その文章に書かれている内容を分類。 固有名抽出、文章分類、地名・座標推定の3つの機能がある。
イメージ 11

【特長】
・同じ単語でも文脈から人名・地名などを区別して抜き出す固有名抽出
・使われている単語が同じであっても、異なる文章として区別する文章分類
・話題になっている地名・座標を確度の高い順に推定
・学習機能を用いたルール作成や精度向上
・様々な端末に対応

【活用イメージ】
・お問い合わせの分類
・特定施設や住所、利用時間などの抽出
・事故・災害情報
・個人情報の自動削除
・迷惑メールのフィルタリング

◆知識情報構造化
専門家の見方で大量文書を構造化
文書を特徴づけるキーワードを抽出し、それらのキーワードを元に文書間の関係を構造化。あらかじめ専門家の知見を学習することで、専門家視点での知識情報構造化が可能。
イメージ 12

特長】
・専門家の見方で構造化
・様々な端末に対応

【活用イメージ】
・製品/商品情報の構造化

◆知識情報検索
検索キーワードの「意味」まで加味した文書検索
知識構造化データを使い、入力されたキーワードと意味の近い文書を検索。
イメージ 13

【特長】
・リアルタイム
・専門家の見方で情報検索
・様々な端末に対応

【活用イメージ】
・企業内文書検索
・特許検索

◆予測
さまざまなデータを学習して構築した予測モデルが未来を予測
予測したい情報と予測に影響を与える情報の過去データを学習させ、予測モデルを作成。作成した予測モデルを使って、将来の状態を予測。
イメージ 14

【特長】
・リアルタイム
・継続学習による予測精度向上
・学習用データ管理機能
・予測モデル作成機能
・予測機能
・様々な端末に対応

【活用イメージ】
・需要予測


出典
FUJITSU Human Centric AI Zinrai(ジンライ)-富士通のAI(人工知能)
http://www.fujitsu.com/jp/solutions/business-technology/ai/ai-zinrai/index.html

この記事に

開くトラックバック(0)

 10月2日JR東日本は、AI技術を応用した「スーパーワンダーレジ」を導入した店舗の実証実験を赤羽駅の5・6番ホームで17日から行うと発表しました。

 次世代の店舗(コンビニ)、省人化、無人化に向けたAIの実用化としては、注目すべきものですね。日本では「Suica」などの活用が進んでいますので、「amazon GO」よりも進展の可能性は高いように思います。

 AIの得意なものは大きくは二つ、画像認識と自然言語処理(音声認識など)ですが、どちらもディープラーニング技術が大きく関係しています。ビッグデータを用いて再学習を行うことで認識精度が向上する可能性もありますが、過学習により認識率の低下の可能性もあり、対象に応じた試行錯誤が必要と思いますので、AI技術者の不足は大きな問題となっていくと思われます。

◆「Wonder Resister」(ワンダーレジ)
イメージ 1

 ワンダーレジは独自開発の人工知能「SPAI」と画像認識技術を活用した設置型AI搭載レジ。買物客はワンダーレジに商品を並べて簡単な操作をするだけで、レジが自動で商品を識別して支払金額の計算から決済まで行う。買物客のレジの待ち時間を大幅に短縮するとともに、レジに関する業務の軽減によって、店舗運営の効率化と人手不足等の課題解決に貢献する。たばこや酒類に対する年齢確認は、レジ背面画像やリモート操作端末で行えるため、店員が迅速に対応できる。さらに、買物客の画像から年齢や性別をAIが推定、測定結果はPOSシステムと連動するので、マーケティングにも活用できる。また、ワンダーレジでは、AIが正しく商品認識をすると、それを示すために本体の外枠が緑色に点灯するが、万一読み取れなかった場合、外枠は赤色に点灯する。
イメージ 2

◆「Super Wonder Register」(スーパーワンダーレジ)
    (https://youtu.be/a7kKxQ5TawU)
イメージ 3

 「SPAI」と画像認識技術、物体追跡技術を活用した無人レジシステム。AIが入店した買物客を追跡して手に取った商品を認識、購入金額の計算から決済まで一貫して自動で行う。買い物客にはレジを通らないシンプルでスピーディーな買物を体験、小売店においては無人店舗を実現する。決済手段は電子マネー、クレジットカード、現金、何でもOK。店内各所に設置されたカメラが買物客の行動を映し、その画像からAIがあらかじめ登録された商品情報と紐付け、その場でその都度、瞬時に計算する。これにより、レジでの会計待ちをすることなく、短時間に決済できるうえ、レジ要員を配置しなくて済む。店側にとっては、人手不足解消、コスト削減が期待でき、利用者にとっては、並ぶストレスが解消。双方にとってメリットがある。

※SPAI=SP(サインポスト)AI:サインポスト株式会社が、ディープラーニング技術を応用して独自開発したAI(電気通信大学との共同研究)

イメージ 4
イメージ 6

◆amazon GO
   (https://youtu.be/NrmMk1Myrxc)
イメージ 5

 amazon GOは、「レジに人がいない無人コンビニ」。2018年1月22日にamazon GOの1号店がアメリカ・シアトルにオープンし、2018年夏、シアトルにamazon GOの2店舗目、3店舗目がオープンした。

 amazon GOの店舗入り口にはスマホの情報を読み取る機器があるので、Qコードを表示させたあと、スマホを機器にかざす。認証が終わると、あとは自由に商品を手に取っていく。好きなものを手に携えるか買い物袋に入れて店舗を出るだけで自動的に会計がおこなわれる。amazon GOではこれを「Just Walk Out Technology」と名付けている。

 Amazon GOの”Just Walk Out”技術を可能にしているのは、店舗内に複数設置されているカメラとマイク、棚に設置されたセンサーの組み合わせ。ディープラーニング・アルゴリズムにより人の動きをトラッキングし、一度手に取った商品をキャンセルして棚に戻したりする動作なども正確に捉える。店内の天井にはいくつものカメラが取り付けられており、これにより全ての来店客の動きを把握する。

 Amazon GO のメリットは、レジで会計を待たなくて良い点と決済のスムーズさ。何人もレジに並んでいるのを、イライラしながら待つ必要がない。また、レジにチェッカーを配置する必要がないため、人件費を確保する必要がない。人がおこなうのは、商品の在庫・鮮度チェックと品出し程度。これらのメリットは、コンビニを経営している企業にとって願ってもないこと。当然、日本のコンビニもAmazon GOの技術に注目している。


参考
DIAMONDonline:AI(人工知能)搭載レジの認識スピードに驚嘆
https://diamond.jp/articles/-/120922

サインポスト株式会社webサイト
http://www.signpost1.com/

S-cubism:Amazon GO1号店がついにシアトルにオープン!レジがないAIコンビニの全貌とは
https://orange-operation.jp/posrejihikaku/self-checkout/10331.html

この記事に

開くトラックバック(0)

「チャットボット」とは、「チャット」「ボット」という言葉が組み合わさった造語。「チャット」は、文字を入力して2人または複数人が会話をすること、「ボット」「ロボット」の略で、処理を自動的に実行するプログラムのことです。つまり、「チャットボット」はテキストや音声を通じて会話を自動的に行うプログラムのことです。別名「人工無脳(じんこうむのう)」もしくは「人工無能」

 身近なチャットボットでは、音声で対話ができるのが大きな特徴のApple社の「Siri」、Google社の「Googleアシスタント」、Microsoft社の「Cortana」などがあります。

 LINEの公式アカウントなどに実装されているチャットボットも多くあり、「ヤマト運輸が提供しているお問い合わせチャットボット」「ライフネット生命がLINEとfacebook Messengerで運用しているチャットボット」「NAVITIMEが提供する電車の乗換案内チャットボット」など。

【チャットボットの厳選事例3選】
◆ウーバーによるメッセンジャーの利用

配車サービスのウーバーは、私たちの日常的な会話の延長としてボットを統合する方法を示す好例です。そのシンプルさこそが、同社のボットの非常に優れた点です。
◆H&MによるKikの利用
ファストファッションのH&Mのチャットボットは、メッセージングサービスのキクにおいてトップクラスの評価。ユーザーの基本情報と、質問に沿って選択された希望のスタイルに基づいて、おすすめの衣料を提案します。
◆KLMによるメッセンジャーの利用
旅行者は予約確認や搭乗券ほか、自分のフライト状況に変更があった場合にはリアルタイムの最新情報を受け取ることもでき、座席番号の変更など、一般的な顧客サービスが必要な利用者も、24時間年中無休のメッセンジャーボットを通じてKLMに連絡を取ることが可能です。

【チャットボットの歴史】
 チャットボットの始まりは1966年に生まれた「ELIZA(イライザ)」です。ELIZAは英語環境のチャットボットです。日本語環境のチャットボットの起源は定かではありません。

【チャットボットのメリット】
◆適所
最近になって、メッセンジャーアプリの利用がソーシャルネットワークの利用を初めて上回る。
◆年中無休
チャットボットは「年中無休」で機能。
◆強い結びつき
専用アプリのダウンロード不要で、強い結びつきを感じているメッセージング環境を使用。
◆洞察
直接的なアクセスが可能となることで、ターゲット層の絞り込みや個別対応が行いやすくなる。
◆スムーズなコンバージョンの達成
必要な情報により早くたどり着けるようになり、コンバージョンタイムが短縮される。
◆統合
複数のシステムを使いやすい1つのインターフェースに統合する作業が容易になる。

【チャットボットの仕組み】
◆プログラム型・辞書型
想定される単語や質問と、それに対する答えを、あらかじめ人が登録(プログラミング)しておくことで、会話ができているように見せているもの。
◆機械学習型
入力された文章に対する適切な返信文章を確率的に計算し、返信文を自動生成するもの。
◆複合型
プログラム型と機械学習型を混合して、会話を表現するもの。

【チャットボットの作り方】
 最初にすべきことは、チャットボットが果たす役割を決めることです。問題となりそうなポイントを特定して、チャットボットによってマイナスの影響を抑えられるかを検討し、さらに、その具体的な方法を知る必要があります。
 機械学習型や複合型のチャットボットを作成するにはPythonなどのプログラム言語を利用してプログラミングをする必要があります。

 プログラム型・辞書型の場合は、次のようなツール・サービスを利用して作成することができます。

【チャットボット作成ツール(開発者向け)】
◆Watson
IBMから提供されている人工知能で、自然言語処理に強いと言われています。WatsonはIBM Cloud (旧:IBM Bluemix)の中の一つの機能で、Watsonの中の「Conversation」でチャットボットを作成できます。
◆DialogFlow
Googleが提供しているチャットボット作成サービスです。チャットボット作成初心者でも、無料でプログラミングも不要で、簡単にチャットボットが作れます。
◆Repi-AI
NTTが提供しているチャットボット作成サービスで、曖昧表現の認識や、過去の会話の記憶、雑談機能で自然な会話を継続できること、そしてなにより、ドラッグ&ドロップの簡単操作でプログラミングが必要なく簡単にシナリオを作成できることが特徴です。無料から使用でき、有料版も月額5,000円から使用できます。

【チャットボット作成ツール(サービス)】
◆AI-Q
IBMのWatsonを使用したサービスです。質問や回答をブラウザから簡単に登録することができ、フィードバックや回答精度の向上、回答内容の確認や管理などもブラウザから簡単に行なえることが特徴です。初期費用200万円、月額使用料24万円から使用できます。
◆hitTO
IBM Watsonと連携しているAIチャットボットサービスです。株式会社大京が、不動産業界で初めて社内のITヘルプデスク業務に導入したことで話題になりました。外部サービスとの連携が可能なので、自社専用に自由にカスタマイズされたチャットボットが簡単に作成できます。初期費用75万円、月額50万円から使用できます。
◆サポートチャットボット
LINEやFacebookメッセンジャー、Webサイトなどで利用できるチャットボットサービスです。SNS上の数十億件のデータを学習しており、サポートも充実しているサービスです。
◆hitobo
LINEやFacebookメッセンジャー、Webサイトなどで利用できるチャットボットサービスです。自動的に返信するボットと人の対応を瞬時にスイッチできる機能があるのが特徴で、カスタマーサポートのやりやすいチャットボットになっています。無料期間の後、月額33,900円(税別)から使用できます。
◆hachidori
LINEやFacebookメッセンジャー、Webサイトなどで利用できるチャットボットサービスです。LINE BOT AWARDSのパートナーに選ばれています。表記ゆれも認識できる言語解析機能を有しているのと、アナリティクス機能や人力サポートを併用することで、運用を見据えたサービスとなっています。月額20万円/月から使用できます。個人は無料プランからあります。
◆Chamo
LINEやFacebookメッセンジャー、Webサイトなどで利用できるチャットボットサービスです。導入企業専用の自動回答スクリプトの作成や、定型的な質問に自動回答できるチャットボットサービスです。人が回答する通常のチャット応答や、ダイレクトメッセージを自動配信して回答する機能などがついています。オペレーター1人¥4,980 / 月から使用できます。

AI研究所の下記記事を参考に「Watson」を使ったチャットボットの作成に取組んでみるのも良いと思います。

Watson Conversationを使ったチャットボットの作り方
https://ai-kenkyujo.com/2017/10/12/watson-chatbot/

出典
AI研究所:チャットボットとは
https://ai-kenkyujo.com/2017/11/29/chatbot/
FUJITSU JOURNAL:これだけ読めばチャットボットのすべてが分かる
http://journal.jp.fujitsu.com/2018/06/13/09/

この記事に

開くトラックバック(0)

 「フォグ(フォグコンピューティング)」という言葉は比較的最近になって出てきた言葉で、「クラウド(雲)」よりもデバイスに近いところに位置しているために「フォグ(霧)」と表現されていて、IoTを実現する仕組みとしてCiscoなどが提唱、世界的な普及を目指しているものです。

 「クラウド(クラウドコンピューティング)」との違いは、デバイスとクラウドが直接接しないこと。データの処理関門を設けることで、一極集中を防ぎ、データの管理・分析・ストーレジを効率化できると言われています。

 「エッジ(エッジコンピューティング)」「フォグ」の違いは、「エッジ」は、「エッジ」の技術を用いているアプリケーションを直接にデバイスに保存、分散の考え方を一層進歩させたものです。一方、「フォグ」は、データをローカルのサーバーに置くことによってシステムのスピードを効率化するものです。

 「エッジ」を導入するメリットは、「フォグ」よりさらに待ち時間を短縮すること。緊急対応の必要なときに、「エッジ」の場合、より早くデータ点の誤りを発見し、問題を解決できることです。

 普及促進団体「OpenFog Consortium」のチェアマンでCiscoの幹部でもあるHelder Antunes氏によれば、「フォグコンピューティングはエッジコンピューティングのようにデバイスに近いところで処理を行うだけでなく、その処理のためのコンピューティングリソースを分散化して最適に配置する仕組み。その意味では、フォグコンピューティングはエッジコンピューティングも包含している。フォグコンピューティングはコンピューティングリソースの最適化を図る技術として、SDN(Software Defind Networking)やネットワークの仮想化をさらに進化させたものと位置付けている。」とのこと。

 また、同団体のプレジデントでIntelの幹部でもあるJeff Fedders氏も「エッジコンピューティングはエンドポイントだけが対象。それに対し、フォグコンピューティングはクラウド側の技術をエッジに落とし込みながらリアルタイムに分散処理することを目指しており、まさしくIoTを実現する仕組みの要になるもの。」と語ったとのことです。

イメージ 1

 上図は、「エッジ」「フォグ」のアーキテクチャーを並べて示しています。「エッジ」はロジックの配置が固定された特定のアプリケーションを実行し、データ分析を伴わない直接伝送サービスを提供。「フォグ」は、ハードウェア機能とソフトウェア機能を切り離すことで、メッシュ状の多層アーキテクチャーとして「エッジ」と連携し、アプリケーションを実行します。「クラウド」から「モノ」に至る連続体の全域にわたって、コンピューティング/ストレージ/通信機能を備えた高度な伝送サービスを提供し、さまざまなアプリケーションに応じて柔軟に構成、再構成できます。

 「クラウド」という言葉が世の中に定着するまでに、ざっくり10年。「フォグ」「クラウド」の延長線上にあるので、数年で定着する可能性もありそうです。ただ、IoTを実現する技術としては必然だと思われますが、果たして世の中に「雲」「霧」の区別が広く認識されるのか…。


出典
Workship MAGAZINE
IoTプラットフォームの3種類を比較!データ管理を効率化するのにぴったりな選び方をご紹介
https://goworkship.com/magazine/iot-platform/
ZDNet Japan
「フォグコンピューティング」は定着するか
https://japan.zdnet.com/article/35084645/
OpenFog コンソーシアム ジャパン
フォグとエッジ: IoT/5Gのエコシステムにおいて、フォグがエッジの機能を拡張する10の領域
https://openfog.jp/fog-edge-iot5g/

この記事に

開くトラックバック(0)

 「エッジ(エッジコンピューティング)」とは、コンピューティングリソース(計算資源)を利用者の端末に近いネットワークの周縁部(エッジ)に配置することにより、低遅延応答、分散処理、トラフィック最適化などを実現するものと言えます。

 IoTに関連してビッグデータが増える中、以前に較べればネットワークもマシンの処理能力も大幅に改善されていますが、やはり中央のクラウドだけですべてを解決することはできず、分散処理の必要性はより強く認識されるようになってきています。

【エッジコンピューティングへのニーズ】
 最近、IoTの普及などにより、より多くのデバイスがネットワークに接続され、データがデジタル化され、保存され、処理されるようになっています。特に、ビッグデータ分析などの対象となってこなかった非構造化データが急増しています。また、クラウドサービスの普及が目覚ましく、より多くのデータがクラウド上に保存され、クラウドで処理すべきデータは急増していますが、クラウドで処理するためには、得られたデータをクラウドに送り、保存し、処理を行って、結果を受け取ることが必要になります。しかし、クラウドはネットワークの向こう側にあり、データが生成・利用される場所からは遠く離れていることも多いです。処理結果を受け取るまでの時間が長すぎると、リアルタイム性、高信頼性が要求される処理(例えば、映像から不審者を検知するなど)では、要求を満たせない可能性があります。また、クラウドまでデータを送り、結果を受け取るための通信コストも考慮する必要があります。加えて、情報管理の課題もあります。法規制によりデータを国内のサーバーにとどめなくてはならない場合もありますし、法的要請がなくても、流出するとセキュリティインシデントになるようなセンシティブな情報をみだりに外部に送る必要はありません。一方、処理を行う機器は価格が低廉化し、小型化し、消費電力量も少なくなってきています。また、5Gなどにより通信環境が改善され、高速・大容量化、接続端末数増、低遅延化が進んでいます。これらのメリットを最大限に活かしつつ、クラウド利用における課題を解消するには、一部のリソースをエッジに分散し、クラウドとの役割分担を図ることが有効になると考えられます。
イメージ 1エッジコンピューティングの概念図
(出典:情報通信総合研究所作成)

【各社の取り組み】
 米AT&T「エッジコンピューティングを通じたクラウドの再発明」として、ネットワークエッジにデータセンターを置く計画を発表しました。5G・SDNにより、「1桁ミリ秒」遅延での通信を実現するとともに、エッジコンピューティングでクラウドに「セカンダリのシステム」のオフロードを行い、「どこにでもワイヤレスのスーパーコンピューターがあるような」環境を提供するとしています。

 AWS(Amazon Web Services)も、エッジコンピューティングに関連する新たなIoTサービスを発表。ただし、同社はクラウドサービスを提供しており、エッジ部分にはリソースを持たないことから、あくまでもオンサイトにあるデバイスでAWSの機能が利用でき、ネットワークに接続されていない時でも稼働が可能になる環境を提供するというアプローチです。

 CDN(Content Delivery Network)で知られるAkamaiは、以前から配信に必要となるキャッシュサーバー(エッジサーバー)を世界各地に展開しており、ある意味、商用エッジコンピューティングサービスの先駆けとも言えます。

【実現するサービス】
 交通カメラで「機械学習」を実行し、交差点を通過する自転車、自動車、歩行者をカウントし、交通の流れを最適化して「安全を確保できる信号機のタイミングを割り出す」サービスや、「ロボットが小売店で優良顧客の顔を認識して挨拶したり、あるいは特別の割引を提供したりする」サービスが実現すると考えられます。

 また、車に関しても、「コネクテッドカー」のサービスや「自動運転レベルの高度化」には、ネットワークを活用し、クラウドと連携した処理が不可欠となります。その際、エッジコンピューティングにより、データセンターで処理すべき情報と、車の近くで高速に処理すべき情報を組み合わせ、例えば、「車に道路上の障害物の情報を素早く伝える」といった機能が実現すると考えられます。


 当分の間は、エッジコンピューティングの活用がさらに進むと考えられますが、課題も存在します。その一つは、どこをエッジと捉え、どのようにリソースを分散するかです。「マイクロデータセンター」の発展も影響してくると考えられます。
 理想的な処理形態はビジネス上の要求条件によってさまざまに異なります。さらに、データを処理してユーザーに返すだけでなく、得られたデータのさらなる活用も検討すべきで、集約サービスを汎用的なものとするか、産業別の特性に応じて分けるかも検討のポイントとなると思われます。


参考
情報通信総合研究所:InfoComニューズレター「エッジコンピューティングをめぐる最近の動向」
https://www.icr.co.jp/newsletter/wtr348-20180329-sadaka.html

この記事に

開くトラックバック(0)

ディープラーニング(deep learning)[深層学習]とは、「人間が自然に行うタスクをコンピュータに学習させる機械学習(machine learning)の手法のひとつ」で、人間の神経細胞(neuron)の仕組みを模したシステムであるニューラルネットワーク(neural network)がベースになっています。

 ニューラルネットワークを多層にして用いることで、データに含まれる特徴を段階的により深く学習することが可能になります。多層構造のニューラルネットワークに大量の画像、テキスト、音声データなどを入力することで、コンピュータのモデルはデータに含まれる特徴を各層で自動的に学習していきます。この構造と学習の手法がディープラーニング特有であり、これによりディープラーニングのモデルは極めて高い精度を誇り、時には人間の認識精度を超えることもあります。

【ディープラーニングの応用例】
◆自動運転
 一時停止標識や信号機のようなものを自動的に認識させています。さらに、歩行者検知にも使われており、事故の減少に役立てられています。
◆航空宇宙・防衛
 衛星から物体認識を行い、地上の部隊が安全なエリアにいるかどうかを判断するために使われています。
◆医療研究
 自動的にがん細胞を検出しています。UCLAの研究チームは、ディープラーニングの学習に必要な高次元のデータセットを作成する高精度な顕微鏡を構築し、正確にがん細胞を見つけ出しています。
◆産業オートメーション
 重機の周辺で業務を行う作業者の安全性向上に役立てられています。人や物が機械の危険域内に侵入した場合、これを自動的に検出することができます。
◆エレクトロニクス (CES)
 自動の音声翻訳に使われています。例えば、人の声に反応し、人の好みを学ぶことができるホームアシスタントデバイスには、ディープラーニングの技術が活用されています。

【ディープラーニングの仕組み】
 ディープラーニングの多くの手法に、ニューラルネットワークの構造が使われ、そうした背景からディープラーニングのモデルは、ディープニューラルネットワークとも呼ばれています。

イメージ 1

 従来のニューラルネットワークでは隠れ層はせいぜい2〜3程度でしたが、ディープニューラルネットワークは150もの隠れ層を持つこともありえます。
 ディープラーニングのモデルは、大規模なラベル付けされたデータとニューラルネットワークの構造を利用して学習を行います。これにより、データから直接特徴量を学習することができ、これまでのように手作業の特徴抽出は必要なくなりました。
 ディープニューラルネットワークで最もよく使われているのは、畳み込みニューラルネットワーク(CNNまたはConvNet)というネットワークです。
 畳み込みニューラルネットワークでは画像から直接特徴抽出を行います。数十から数百もの隠れ層により、1つの画像に含まれる数々の特徴を学習していきます。層が進むにつれて、より複雑な特徴を学習します。例えば、最初の隠れ層ではエッジ検出など単純な特徴からスタートして、最後の層ではより複雑な特徴、特に認識したい物体の形状の学習へと進んでいきます。

【機械学習とディープラーニングから最適な手法を選ぶ】
 機械学習には幅広い手法とモデルがあり、用途や処理するデータサイズ、解決したい課題のタイプに合わせて選択することができます。

 機械学習は、要求される結果により以下のように分類されます。
◆教師あり学習
入力とそれに対応すべき出力(人間の専門家が訓練例にラベル付けすることで提供されることが多いのでラベルとも呼ばれる)を写像する関数を生成する。
◆教師なし学習
入力のみ(ラベルなしの例)からモデルを構築する。
◆半教師あり学習
ラベルありの例とラベルなしの例をどちらも扱えるようにしたもので、それによって近似関数または分類器を生成する。
◆強化学習
周囲の環境を観測することでどう行動すべきかを学習する。行動によって必ず環境に影響を及ぼし、環境から報酬という形でフィードバックを得ることで学習アルゴリズムのガイドとする。
◆トランスダクション
(トランスダクティブ推論)観測された具体的な(訓練)例から具体的かつ固定の(テスト)例の新たな出力を予測しようとする。
◆マルチタスク学習
関連する複数の問題について同時に学習させ、主要な問題の予測精度を向上させる。(ウィキペディアより)

 一方、ディープラーニングを成功させるには、データを高速で処理するためのGPUだけでなく、モデルを学習させるための大量のデータ(数千もの画像)が必要となります。

 機械学習かディープラーニングを選ぶときは、まず高性能なGPUと大量のラベル付けされたデータがあるかどうかを確認する必要があります。もしどちらかが欠けている場合、ディープラーニングではなく機械学習が適当と言えるでしょう。ディープラーニングは一般的に機械学習より複雑であるため、信頼できる結果を得るには少なくとも数千の画像が必要となります。より高性能なGPUがあれば、そうした大量の画像の学習に必要な時間はさらに短縮していくことができます。

【ディープラーニングモデルの作成、学習方法】
 ディープラーニングを使用した物体認識には下記の3つの手法がよく使われています。
◆ゼロから学習する
 ディープネットワークをゼロから学習するには、大量のラベル付けされたデータを集め、特徴量を学習しモデル化するためのネットワークを設計する必要があります。この方法は、新しい分野での応用や、出力するカテゴリ数が多い場合には有効ですが、大量のデータと学習時間が必要であることから、使用頻度はそれほど高くありません。通常、こうしたタイプのネットワークの学習には、数日から数週間といった長い時間を要します。
◆転移学習
 多くのディープラーニングの応用では、学習済みモデルの微調整を行うタイプのアプローチとして、転移学習が利用されています。この転移学習では、AlexNetやGoogLeNetといった既存の学習済みのネットワークに対して、そのネットワークでは事前には学習されていないクラスを含むデータを与えて学習させます。その場合、学習済みのネットワークには若干の修正が必要となりますが、ネットワークの学習後には本来の「1000種類のカテゴリへの分類」の代わりに「犬か猫か」といった新しいタスクを行わせることができるようになります。この手法には、ゼロからネットワークを学習させる場合と比較して必要なデータ数がはるかに少なくて済むという利点があり(何百万ではなく数千の画像)、計算時間は数分から数時間程度に短縮されます。
◆特徴抽出
 ディープラーニングのより専門的な手法として、ネットワークを特徴抽出器として使用する方法があります。ネットワークのすべての層は画像からある種の特徴量を抽出する役割を持っているため、推論の任意の段階で特徴量を取り出すことが可能です。取り出した特徴量は、サポートベクターマシンなどの機械学習モデルへの入力として使用することができます。

【GPUでディープラーニングモデルを高速化】
 ディープラーニングモデルの学習には、数日から数週間といった長い時間を要することがありますが、GPUを使うことで処理を大幅に高速化できます。

【GPU(Graphics Processing Unit)】
 リアルタイム画像処理に特化した演算装置ないしプロセッサ。グラフィックコントローラなどと呼ばれる、コンピュータが画面に表示する映像を描画するための処理を行うICから発展した。特にリアルタイム3DCGなどに必要な、定形かつ大量の演算を並列にパイプライン処理するグラフィックスパイプライン性能を重視している。現在の高機能GPUは高速のVRAMと接続され、グラフィックスシェーディングに特化したプログラマブルな演算器(シェーダーユニット)を多数搭載している。
(ウィキペディアより)

出典
MathWorks:ディープラーニング これだけは知っておきたい3つのこと
https://jp.mathworks.com/discovery/deep-learning.html

この記事に

開くトラックバック(0)

「ビッグデータ」を文字通り解釈すれば、「膨大な量のデータ」ということになりますが、「ビッグデータ」が表す意味はもう少し複雑で、Hitachiのwebサイトのコラム「ビッグデータへの道」では、「残念ながら共通定義はまだ定まってはいない」としながらも、次のように定義しています。

「ビッグデータとはインターネットの普及とIT技術の進化によって生まれた、これまで企業が扱ってきた以上に、より大容量かつ多様なデータを扱う新たな仕組みを表すもので、その特性は量、頻度(更新速度)、多様性(データの種類)によって表される。」
【注意点】
◆大きなデータだからといってすべてが「ビッグデータ」ではない。
◆どんな場合でもNoSQLで処理するべきではなく、RDBMSとNoSQLは使い分ける。
◆ビッグデータとこれまでのシステムとの大きな違いは扱うデータの種類にある。

--------------------------------------------------
RDBMS(Relational DataBase Management System)
リレーショナルデータベースを管理するためのソフトウェアの総称。SQL言語を使ってデータを出し入れする。(代表例:オラクル)

NoSQL(Not only SQL)
NoSQLはNot only SQLの略で、その名の通り、SQL言語を使わずにデータの操作ができるデータベースを指す。Key-Value型データベース。(代表例:XML,JSON)

NoSQLは、大量のデータを保持することに向いている。データの参照には適すが、データの更新や削除には向いていないので、取っておく必要はあるけど、普段頻繁に利用しないデータには最適。(ログデータ、動画データ、バイナリデータ[大量のシンプルなデータ])

RDBMSはトランザクション処理(関連する一連の処理全体を一つの処理単位として管理する仕組み)が行えるから、一貫性を保つ必要があるデータに向いている。

参考:GMOクラウドアカデミー
   NoSQLとは?RDBMSと比較しながら分かりやすく解説
--------------------------------------------------
平成29年版情報通信白書では、

 「データが主導する経済成長と社会変革の実現においては、ビッグデータの利活用が鍵を握る。そしてビッグデータを収集するための手段がIoT(Internet of Things)であり、ビッグデータを分析・活用するための手段がAI(人工知能:Artificial Intelligence)である。」

と書かれています。また、

 「データ主導型社会における経済成長への貢献には4つの「V」の視点がある。すなわち、データ流通量(Volumeof Data)、データの速度(Velocity of Data)、データの種別(Variety of Data)、データの価値(Value of Data)である。」

と書かれており、上述の例に対して、「価値」が追加されています。

 また分類として、個人・企業・政府の3つの主体が生成しうるデータに着目し、大きく以下の4つに分類しています。

1)政府:国や地方公共団体が提供する「オープンデータ」
  政府や地方公共団体などが保有する公共情報
2)企業:暗黙知(ノウハウ)をデジタル化・構造化したデータ(「知のデジタル化」と呼ぶ)
  農業やインフラ管理からビジネス等に至る産業や企業が持ちうるパーソナルデータ以外のデータ
3)企業:M2M(Machine to Machine)から吐き出されるストリーミングデータ(「M2Mデータ」と呼ぶ)
  例えば工場等の生産現場におけるIoT機器から収集されるデータ、橋梁に設置されたIoT機器からのセンシングデータ(歪み、振動、通行車両の形式・重量など)等
4)個人:個人の属性に係る「パーソナルデータ」
  個人の属性情報、移動・行動・購買履歴、ウェアラブル機器から収集された個人情報を含む

 「現在、膨大な計算処理能力を備えていない機器であっても、クラウド上で計算してデータの処理を行うことが可能となり、またAIの発展も相まって、計算環境が格段に向上しかつ低コストで利用できるような世界へ進化している。」

と書かれていますが、「エッジ(エッジコンピューティング)」「フォグ(フォグコンピューティング)」の進展によって、今とは様相が大きく変わってくると思われます。

【エッジコンピューティング(edge computing)】
コンピューターネットワーク上で、利用者に近い場所に多数のサーバーを配置し、負荷の分散と通信の低遅延化を図ること。サーバーの集約化を図るクラウドコンピューティングに比べ、通信遅延を100分の1程度にすることができ、リアルタイム処理を必要とするMtoMやIoT端末への対応が可能となる。
[補説]エッジはコンピューターネットワークの端、縁(へり)の意。
(小学館/デジタル大辞泉より)

【フォグコンピューティング(Fog computing)】
ネットワーク環境の中で、データがクラウドに行く前、端末に近い場所でのミドルウェアによる分散処理環境を指す。シスコシステムズがIoT(モノのインターネット)への対応に向けて提唱した概念に由来し、「cloud=クラウド(雲)」との位置関係から「fog=フォグ(霧)」という表現が使われている。
(キーエンス/現場で役立つIoT用語辞典より)

出典
Hitachiのwebサイト:コラム「ビッグデータへの道」
GMOクラウドアカデミー:NoSQLとは?RDBMSと比較しながら分かりやすく解説
平成29年版情報通信白書

この記事に

開くトラックバック(0)

[ すべて表示 ]

本文はここまでですこのページの先頭へ
みんなの更新記事