実験医学 キーワード集 検索へ行くボタン

transformer

TransformerはAttentionのみを用いた並列処理モデルで,Self-Attention層で要素間の関連性を把握し高精度を実現,BERTやGPTなどの大規模言語モデルの基盤となっている.(実験医学増刊4315より)

構造生命科学 AlphaFold時代にどう活かす?

生命機能を解く、変える、創るための技術と研究戦略

加藤英明,西増弘志/編

TransformerはAttention機構を用いたニューラルネットワークの一種であり,従来のRNNに比べて並列処理が可能なため,高速かつ効率的にデータ処理が行える.もともとは自然言語処理の翻訳タスクで開発されたが,最近では画像認識や生成モデルなど幅広い分野に応用されている.ナノポアシークエンシングにおいては,電流シグナルからRNAの塩基配列や修飾の同定を直接行うEnd-to-Endの解析に利用されている.(実験医学2025年7月号より)

ナノポアシークエンサーを用いたRNA修飾の網羅的直接解読実験医学2025年7月号

2017年にGoogleの研究者によって提案された,テキストをはじめとする系列処理が得意なモデル.エンコーダとデコーダから構成されるモデルであり,現在の基盤モデルの大半はこのモデル構造を採用している.(実験医学2025年1月号より)

臨床基盤モデル・マルチモーダル基盤モデルの現在地点実験医学2025年1月号

解説は発行当時の掲載内容に基づくものです

本コンテンツは,2018年まで更新されていた同名コンテンツを元に,新規追加・再編集したものです

関連書籍
  • 9784758122764
  • 9784758122825
  • 9784758122849
  • 9784758122580
  • 9784758122566
  • 9784758125727
  • 9784758104166
  • 9784758122733