日本語と英語、中国語で会話する人工知能(AI)が、それぞれの母国語に翻訳して聞かせてくれるイヤホンが開発された。日本の総務省傘下の情報通信研究機構が、これら3つの言語を自動的に翻訳して聞かせてくれるイヤホンを開発したと日本経済新聞が18日伝えた。
情報通信研究機構は独自に開発した翻訳技術などを企業などの必要なところに提供して実用化を急ぐのを計画している。開発されたイヤホンはマイクを兼ねていて、スマートフォンと無線でつなげられる。
話す人の声をマイクで拾って、スマートフォンを介して文字データとしてサーバに送られ、AIの「ディープラーニング」技術を利用して、相手の母国語へと翻訳してイヤホンから音で聞かせる。
日本語、英語、中国語の3ヶ国語に対応していて、3人以上がそれぞれの母国語で自然に会話することが可能である。話者の話が終わると約2秒後に翻訳された音で聞くことができる。
これまでは翻訳ソフトの精度が低かったが、情報通信研究機構はディープラーニング技術を導入して、翻訳の正確さを従来の60〜70%から90%前後まで高め、日常会話に問題がないレベルに引き上げた。
英語能力テストの「TOEIC」換算で800点以上のレベルだという。
AIを活用した翻訳ソフトの開発が活発に行われているが、日本語は翻訳が難しいと知られている。
NEC、富士通などは、情報通信研究機構の技術を活用し、小型の翻訳端末の開発を進めている。
米グーグル社の翻訳で利用できるイヤホンを米国で販売しているが、日本での販売時期は決まっていない。
矢野経済研究所によると、今年の通訳・翻訳市場規模は2千900億円(約2兆8000億ウォン)に達すると推定される。翻訳機能を搭載したイヤホンは、外国人と簡単にコミュニケーションできる商品で、市場がさらに大きくなる可能性がある。
日本政府は東京オリンピックとパラリンピックが開催される2020年までに高精度の同時通訳システムの実用化を目標に掲げている。
http://v.media.daum.net/v/20171219105803629- 2名無し2017/12/30(Sat) 10:37:26(1/1)
このレスは削除されています
대단하다.. 일본도 이런 분야 만큼은 우수한것같다, 한영 자동 통역 이어폰도 만들어주면 좋겠다..
한국어는 안 만드는 거야?
>>4
翻訳エンジンは31言語に対応しているが、韓国語は需要がないからな外国へ行くと、言葉の壁は本当に分厚いものだが
先端技術によって解放されそうだ이제 외국어를 배우지 않아도 되는 세상이 올지도
>>7
それはどんな技術だ?>>2
もちろん。お前以外は全て平等。イヤホンタイプは、相手の話は翻訳してくれるが、
こちらの話は、相手にも自動翻訳イヤホンがないと、駄目なのだろうか?
「ちょっとこのイヤホンつけてください」笑
一旦、スマートフォンを経由するようだから、スマートフォンのスピーカーから出力すれば良いのかなこれ、語学の学習環境も用意しておくと売れるよ
てか、スピードラーニング終わりじゃん
てか、てか、もう語学の学習方法を根本的に変えろよ>>11
翻訳精度の確認はこのアプリで可能
みんなが使ってフィードバックすれば精度がさらに高まるから協力したら?
http://voicetra.nict.go.jp/>>3
はい?w
これからSamsungが修羅場を迎えようとしてる時期に、韓国人が井の中の蛙大海を知らずでは困りますよ。
かつては日本家電メーカーが欧米家電メーカーを苦しめた、そして数社の欧米企業が生き残りワールプール、エレクトロラック、フィリップスは今でも世界TOP10の優良企業。韓国語的な表現を使えば源泉技術がある欧米は今でも健在。
その後、日本は韓国メーカーに苦しめられ、パナソニックが家電メーカーとしては世界TOP10に残るのみとなった。そしてSONYなどは返り咲くチャンスが絶たれた訳ではないだろう。
そして今後は韓国が中国やアジアのメーカーに苦しむ時期が来ているのに、韓国人はいつまで呑気でいるのか?韓国の武器はサムスンとLGしか無いじゃないか。LGは栄養源のサムスンがダメになれば自滅する運命だし実質的にはサムスンしか無い。ヒュンダイは終わった。安売りしか出来ないKIAは論外。2000年代前半は朝鮮民族史上最も繁栄した時期なのは間違いないだろうが、欧米や日中から見たら大した好景気でも無かったのに、いつまで浮かれている。
水素エンジン、自動通訳技術など、韓国は盗んできた未完成な技術で試作品を作り、相手より先に発表して、源泉技術がある振りをしているが、そんな嘘は長くは通用しない。既に技術では中国企業がサムスンを追い抜いている。>>15
少し調べてみた
ISO/IEC 20382 Information technology -- User interface -- Face-to-face speech translation
のことかな?
これを韓国のETRIが提案したということのようだ
ISO/IEC 20382-1:2017 is not applicable to defining the speech translation engine itself.ISO/IEC ISO/IEC 20382-2:2017 is not applicable to defining speech recognition engines, language translation engines and speech synthesis engines.
のように、この規格は相互運用性を高めるための技術仕様であり、翻訳機能そのものではないね>>16
これだけ日韓関係が致命的になると、日本からの技術に頼る事は出来ないだろうから、
これから韓国は韓国の実力だけで頑張って欲しい。機械は同音異義で悩むんだろうな
>>18
IDがかわってるかもしれないが、>>17 だ
ISOは有料だから購入しなければ詳細はわからない
公開されているIntroductionを読む限り次のような仕様だと考えている
私の解釈が間違っている可能性は高いので、正確に知りたい方はお金を払って購入してみると良い
#長くなるが我慢してくれ。また、行数制限があるようだから改行位置も減らしてしまった
対面で二人会話する場合、「あなた何言語が理解できる? 私は日本語だ」というように、まず質問してから翻訳ソフトをセットアップして会話を開始することができる。しかし、例えば会話相手が五人でそれぞれ異なる言語だったとするとどうだろう? かなり面倒であることは明らかだ。
相手の理解できる言語を質問せず会話をスタートできたら便利だと思わないか?
この規格は、ユーザインターフェース、端末(マイクやスマートフォンなど)、翻訳サーバ間の連携について規定しているものと考えられる。
例えば、アプリは異なっていても良いが、この規格に準拠したものを起動している者が近くにいれば自動的に検知し、予め設定されている自分自身が理解できる言語(母国語?)を相互に送信し合って会話の準備が自動的に完了する。当然、会話に参加させたくないものをブロックする機能も考慮されていると思われるが。
会話は、マイクで集音し、端末(スマートフォンなど)で文字起こし(音声→文字変換)された後に翻訳サーバ(クラウド)へ転送。(音声のままサーバへ送信するのかもしれないが、サーバの負荷を考えると端末で行うのが良さそう)
サーバは発話者の言語から会話相手のそれぞれの言語に翻訳して、彼らの端末に送信(発話者の端末を経由するのか、サーバから直接送るのかは分からない)
ここで、サーバが翻訳機能を持たない言語があれば、他の翻訳サーバと連携 (これの想像であるが)
各端末はサーバから受け取った翻訳文を音声合成してスピーカー(ヘッドセットなど含む)から再生
以上のような手順や相互の通信の仕様を定義した物だと考えている。この中で音声認識、音声合成や翻訳エンジンの中身について規定する必要はないはず。朝鮮人は来年あたりから、中国語が公用語だから開発は不要。
>>24
君は面白いな ^ ^
NICTはそこまで先読みして韓国語を除外したのかもな韓国の技術が世界標準になったって 騒いでたのは、どうなった?日本だけが反対した、ざまぁーって言ってたヤツ。
>>27
ほー。日本は反対したのか。
日本では東京オリンピックに向けて様々な翻訳機を商用に乗せてきているから、日本仕様を盛り込めと主張したのか?
ソースがあれば知りたいところだ。
しかし、日本は先端を突っ走るのは得意だが標準仕様化するのは苦手だからな。
FecliCaも失敗事例だ。>>29
記事自体は古くはない
2017年12月18日に日本経済新聞へ掲載された記事を参照していると思われる。
現在は精度が悪くても使っていれば学習していく
利用者皆で育てるのもよくないか?>>26
なるほど。確かにそう言う一面を持った韓国人も多い。
私が知る限りだと、信用しすぎなければ付き合いやすい韓国人は多いと思う。自動通訳イヤホンに韓国語は必要ない。
どうして必要ないか?
それは韓国人が日本に来て(悪用=犯罪行為)に使用するからである。>>31
上手に抽象化できてれば足枷にならない可能性はある
専門家の間で検討が重ねられただろうから心配はいらないだろうYouTubeの動画に字幕をつけると・・・
YouTubeの自動字幕機能を見るかぎり、まだまだ難しそうだな。
音声認識のGoogle apiを使ってるみたいだが、精度は低い。
google assistant,siri見たいな短い単語の認識と、
長い日常会話では、レベルが違う気がするんだよなぁ>>35
Youtubeの字幕機能だが、音声の認識がネックとなっている
試しに、日本語を喋っている映像で日本語字幕を表示してみれば分かりやすい
これは、同時に複数の人間が喋ったり、雑音が多くて認識が難しいのだと思われる
この課題は、専用のヘッドセットを開発して本人の音声のみ拾えれば克服可能ではないか
そう考えると、人間の脳は素晴らしいな
耳から同時に様々な音を拾いながら、自分が聞きたい音声を抽出できるんだ
複数の人が発した音声をそれぞれ正しく理解できる人もいるそうだ
ちなみにプレス分では「英語能力テストの「TOEIC」換算で800点以上のレベルだという。」とのこと
これが事実であれば、自分は英語を喋るのが恥かしい。 頼むからTOEICの点数は聞かないでくれ取り敢えず、韓国語は省
>>37
自動車のエンジンも自国でつくれず日本から買っている韓国に未来はあるかな?>>37
答えは誰にも分からない
是非1年後、この掲示板で会って答え合わせしてみよう ^^話が脱線して申し訳ない。規約違反であればこの書き込みを無視してくれて結構
この掲示板に書き込むとIDが不定期に変わるのだが、原因がわかる方はいないだろうか?
ブラウザーのCookieを削除したりはしていない>>37
中国に追い越され出した半導体の次の手がないんじゃ無い?- 43名無し2018/01/01(Mon) 05:49:53(1/1)
このレスは削除されています
日本、日英中の自動通訳イヤホン開発…母国語で会話可能
43
ツイートLINEお気に入り
347