主要な研究トピック|NTTコミュニケーション科学基礎研究所|NTT R&D Website
トピック 人間情報科学 「聞く」と「話す」の密接な関係 マルチモーダル情報による人物行動認識 質感を見極める視覚のしくみ 触れて感じるメカニズム 視覚が生み出す力 ぶるなび スポーツ脳科学 メディア処理
https://www.rd.ntt/cs/research_topic/
NTT コミュニケーション科学基礎研究所 オープンハウス2020 研究展示
BRAVE 聞きたい人の声に耳を傾けるコンピュータ(Ⅱ) 音声と映像を手がかりとしたマルチモーダル選択的聴取 顔で声の表情を制御する クロスモーダル音声表情変換 探し方を学びながら探す 適応的スポッティング法
https://www.rd.ntt/cs/event/openhouse/2020/exhibition.html
重点募集中の職種 | NTT R&D Website
います。「tsuzumi」は、効率的に知識を学習させることのできるアダプタ*4により、例えば特定の業界に特有の言語表現や知識に対応するようなチューニングを少ない追加学習量で実現できます。 マルチモーダル*5
https://www.rd.ntt/hil/recruitment/focus01.html
OH2020ポスター
と映像を手がかりとしたマルチモーダル選択的聴取 ・ 顔で声の表情を制御する クロスモーダル音声表情変換 ・ 探し方を学びながら探す 適応的スポッティング法による効率的な物体探索 ・ データを端末から漏洩
https://www.rd.ntt/cs/event/openhouse/2020/download/2020_poster.pdf
波動伝搬研究部|NTT未来ねっと研究所|NTT R&D Website
に取り組んでいます。 また、光デバイスを応用した新たな無線信号処理による光マトリクス無線ビームフォーミングや空間中で電波の波動を制御するマルチシェイプ波動制御、マルチモーダルな無線環境情報に基づく無線通信
https://www.rd.ntt/mirai/organization/product_3/
oh09_pamphlet.pdf
− ・・・・・・・・・・28 A 場とコミュニケーション B-1 会話の流れが一目瞭然! −コミュニケーションシーンを理解する音声映像技術− ・・・・・・・・・・・・・29 ● 実時間会議モニタリング −リアルタイム & マルチモーダル
https://www.rd.ntt/cs/event/openhouse/2009/oh09_pamphlet.pdf
IOWN INTEGRAL | NTT R&D Website
な特徴は以下の5つになります。 軽量:1GPU/1CPUで動作可能 カスタマイズ可能:業界・組織の専門知識を保有させやすい マルチモーダル:言語だけではなくグラフや表の読解にも対応 日本語に強い:性能世界
https://www.rd.ntt/forum/2024/keynote_2.html
OH2020リーフレット
と映像を手がかりとしたマルチモーダル選択的聴取 顔で声の表情を制御する クロスモーダル音声表情変換 探し方を学びながら探す 適応的スポッティング法による効率的な物体探索 データを端末から漏洩させない分散
https://www.rd.ntt/cs/event/openhouse/2020/download/2020_leaflet.pdf
幅広い領域をカバーし新たな通信パラダイムを切り拓く研究開発 | NTT R&D Website
ュニケーションの実現に向け、物理空間の構成情報をリアルタイムで低遅延に伝送するナチュラルメディア処理技術、センシング・AI(人工知能)等により、通信品質・環境を予測し、設定・制御・管理するマルチモーダル無線環境把握
https://www.rd.ntt/research/JN202205_18109.html
表彰一覧 | NTT R&D Website
2018年度 2017年度 2016年度 2015年度 2014年度 2013年度 2023年度の表彰 文部科学大臣表彰 若手科学者賞 マルチモーダル対話の機序のモデル化と対話支援の研究 人間情報研究所石井
https://www.rd.ntt/award.html
openrd_j.pdf
辰彦、小岩 正明、奥村 幸彦) マルチモーダル対話の機序のモデル化と対話支援の研究 (石井 亮) IEEE Photonics Society IEEE Photonics Society 2023
https://www.rd.ntt/about/openrd/2024/openrd_j.pdf
書籍出版物|NTTコミュニケーション科学基礎研究所|NTT R&D Website
)。翻訳を当研究所の小林が担当。文庫版では、原著第二版で新たに執筆された最終章も追加され、数覚研究の最新動向を把握可能。 「Pythonと大規模言語モデルで作るリアルタイムマルチモーダル対話システム (エン
https://www.rd.ntt/cs/overview/publications.html
oh08_pamphlet.pdf
の調和- • マルチモーダル会話シーン分析 • 動画像上での高速顔方向追跡 • 雑音に頑健な音声区間検出 -いつ発話があったかを知る技術- • 実世界の音響シーンにおける収録音声からの残響と雑音の除去 A
https://www.rd.ntt/cs/event/openhouse/2008/doc/oh08_pamphlet.pdf
OH2020冊子
方式 BRAVE ・・・・・ 30 聞きたい人の声に耳を傾けるコンピュータ(Ⅱ) 音声と映像を手がかりとしたマルチモーダル選択的聴取 ・・・・ 31 顔で声の表情を制御する クロスモーダル音声表情変換
https://www.rd.ntt/cs/event/openhouse/2020/download/2020_booklet.pdf
OH2010.pdf
ン分析に向けた実時間マルチモーダルシ ステムの構築」,信学技法MVE2008-68,pp.55-62,2008 ・大塚,荒木:「会話シーン分析のための音声映像技術」,NTT技術ジャーナル, May
https://www.rd.ntt/cs/event/openhouse/2010/OH2010.pdf
LLMInjectionTaxonomy_v1_20241225.pdf
ルとした。よって、本文書では、LLMの訓練過程とその計 算基盤への攻撃やマルチモーダル性を悪用する攻撃、LLMアプリの仕様に関する 議論は対象外とする。それぞれの範囲について、具体的には以下の通りとなる。 LLMの訓練
https://www.rd.ntt/sil/project/LLMInjectionTaxonomy/LLMInjectionTaxonomy_v1_20241225.pdf
人間情報研究部|NTTコミュニケーション科学基礎研究所|NTT R&D Website
コンバーティングものづくり研究会 / Art for Well-beingプロジェクト /科学技術と経済の会(JATE) 研究内容 「聞く」と「話す」の密接な関係 マルチモーダル情報による人物行動認識
https://www.rd.ntt/cs/team_project/human/
前へ
次へ