京橋のバイオインフォマティシャンの日常

南国のビーチパラソルの下で、Rプログラムを打ってる日常を求めて、、Daily Life of Bioinformatician in Kyobashi of Osaka

【Rのジミ〜な小技シリーズ】時々にしたくなる、Rの古いバージョンのパッケージ(The previous version packages)をインストールする件

はじめに

Rを使っていると、稀に、パッケージのバージョン違いで問題が起こることがあります。

そのとき、以前の古いバージョンのパッケージをインストールする必要がでてきます。。

今回はそういう時のお話です。

過去のバージョンのRパッケージをインストールする

以前のバージョンをインストールする場合には、まず、CRANのパッケージのページにいきます。

例えば、psychパッケージだと、以下のURLになります。

CRAN - Package psych

そこで、Downloads:にある、psych archiveをクリックして、アーカイブのページにはいります。

そこのアーカイブのなかから、必要なバージョンを探します。

ここでは、1つ前のバージョン 1.9.12 を入れるので、そのリンクをコピーします*1

次に、Rを起動して、以下の命令文を実行すれば、インストールは完了します。

さて、やってみましょう。

#さきほどのリンクをペーストする
URL <- "https://cran.r-project.org/src/contrib/Archive/psych/psych_1.9.12.tar.gz"

#type="source"で実行する
install.packages(URL, repos=NULL, type="source")

#URL 'https://cran.r-project.org/src/contrib/Archive/psych/psych_1.9.12.tar.gz' を試しています 
#Content type 'application/x-gzip' length 1720133 bytes (1.6 MB)
#==================================================
#downloaded 1.6 MB
#
#* installing *source* package ‘psych’ ...
#**  パッケージ ‘psych’ の解凍および MD5 サムの検証に成功しました 
#** using staged installation
#** R
#** data
#*** moving datasets to lazyload DB
#** inst
#** byte-compile and prepare package for lazy loading
#** help
#*** installing help indices
#** building package indices
#** installing vignettes
#** testing if installed package can be loaded from temporary location
#** testing if installed package can be loaded from final location
#** testing if installed package keeps a record of temporary installation path
#* DONE (psych)

つづいて、インストールしたpsychパッケージのバージョンを確認します。

packageVersion("psych")

まとめ

以前のバーション・過去バージョンのインストールは、 タマーにしないといけず、どうやったっけ?と戸惑うので、メモしておきます。。

ジミ〜〜ですが、大切なことですよね。

【Rのジミ〜な小技シリーズ】

skume.net

skume.net

skume.net

skume.net

skume.net

skume.net

skume.net

skume.net

skume.net

*1:アーカイブでは、下の方ほど、新しいパッケージです

【R言語と学術論文】PubMed API「RISmed」と googletrans を使って、PubMed掲載論文のAbstract和訳をRでやってみた件

はじめに

論文のトレンド解析であったり、個別の論文情報、主に要旨(Abstract)を取得してみた。 もう少し発展させて、Abstractの英文テキストの和訳をして、Rmarkdownのレポート作成するまでをやってみた。

今回扱う、RISmed パッケージは、PubMedを含むNational Center for Biotechnology Information (NCBI: アメリカ国立生物工学情報センター)のデータベースから論文情報を抽出するためのツール群である*1

また、Abstractのテキスト和訳には、以前の記事で紹介した、Pythonの googletrans ライブラリを使用する。

skume.hatenablog.com

Rパッケージのセットアップ

6つのRパッケージをインストール・ロードしておく。

if(!require("RISmed")){install.packages("RISmed")}; library(RISmed)
if(!require("magrittr")){install.packages("magrittr")}; library(magrittr)
if(!require("purrr")){install.packages("purrr")}; library(purrr)
if(!require("plotly")){install.packages("plotly")}; library(plotly)
if(!require("progress")){install.packages("progress")}; library(progress)
if(!require("reticulate")){install.packages("reticulate")}; library(reticulate)

RISmedパッケージで主に使用する関数は、EUtilsSummaryEUtilsGetである。

EUtilsSummary: NCBIのデータベースに対するクエリの結果の概要情報を取得する関数。

EUtilsGet: NCBIのデータベースに対する検索結果をダウンロードする関数。

PubMed全体でキーワード検索をやってみる

"3d electron microscopy" (3D電顕)をキーワードに検索してみる。

# キーワード検索
SearchTerm <- "3d electron microscopy"

#PubMed検索
esearchResults <- SearchTerm %>% 
  EUtilsSummary(query=., type="esearch", db="pubmed", retmax=10000)

#Queryとヒット数
summary(esearchResults)
#Query:
#3d[All Fields] AND ("microscopy, electron"[MeSH Terms] OR ("microscopy"[All Fields] AND 
#"electron"[All Fields]) OR "electron microscopy"[All Fields] OR ("electron"[All Fields] AND 
#"microscopy"[All Fields])) 
#Result count:  7077

#データ構造の出力
str(esearchResults)
#Formal class 'EUtilsSummary' [package "RISmed"] with 6 slots
#  ..@ db              : chr "pubmed"
#  ..@ count           : num 7077
#  ..@ retmax          : num 7077
#  ..@ retstart        : num 0
#  ..@ PMID            : chr [1:7077] "32573315" "32571921" "32571173" "32569437" ...
#  ..@ querytranslation: chr "3d[All Fields] AND (\"microscopy, electron\"[MeSH Terms] OR 
# (\"microscopy\"[All Fields] AND \"electron\"[All Fi"| __truncated__

次に、2020年の掲載論文に対して、キーワード検索を行ってみる。

Year <- 2020
SearchTerm <- "3d electron microscopy"

esearchResults2020 <- SearchTerm %>% 
  EUtilsSummary(query=., type="esearch", db="pubmed", mindate=Year, maxdate=Year, retmax=10000)

#ヒット数の表示
QueryCount(esearchResults2020)
#OR
esearchResults2020@count
#[1] 312

次に、ヒットしたPMID*2をもとに、論文情報(雑誌名、論文タイトル、Abstract、MeSHとか)を検索してみる。

#PMIDを出力する
PubID <- QueryId(esearchResults2020)
PubID

#  [1] "32573315" "32571921" "32571173" "32569437" "32567732"
#  [6] "32566142" "32565223" "32559707" "32557536" "32556943"
# [11] "32554894" "32548815" "32548814" "32545804" "32545376"
# ......

#PMIDから、1つ目の論文情報(PMID "32573315")の検索
PubIDResults <- PubID[1] %>%
 EUtilsGet(type="efetch", db="pubmed")

PubIDResults
#PubMed query:   
#   Records:  1 

#Mesh headingsを調べる
Mesh(PubIDResults)
#[[1]]
#[1] NA
#ただし、この論文はMeshが付与されてないみたい

MeSH (Medical Subject Headings) は、米国国立医学図書館 (National Library of Medicine; NLM)で定める生命科学用語集(シソーラス)である。調べた論文はNAだったが、文献の内容を表す適切なMeSH用語を10〜15個程度文献に付与し、この用語により文献を検索・管理できるようにしているらしい*3

#データのリスト化
Results <- list(PubIDResults@PMID,
                PubIDResults@Author,
                PubIDResults@Title,
                PubIDResults@ArticleTitle,
                PubIDResults@AbstractText)

データをリスト化しておく、データ表示については後述する。

少し脱線して、年ごとの論文数をまとめてみた

年ごとの論文数をまとめることで、そのキーワードの研究トレンドを把握できると考えられる。

そこで、対象キーワードの年ごとの論文数を集計する関数を導入する。

PubNumber <- function(i){
  r <- EUtilsSummary(terms, type='esearch', db='pubmed', mindate=i, maxdate=i)
  return(QueryCount(r))
}

この関数に対して、map関数で、年数のベクトル値(i)とキーワード(terms)を与えてあげると、年ごとの論文数を検索できる。

コロナウィルス(Coronavirus)をキーワードに、1970-2020年の1年ごとで論文数を検索して、可視化みる。

#Coronavirus publications in PubMed 
terms <- "Coronavirus"
Years <- 1970:2020

PubNum <- purrr::map(Years, PubNumber)
Data <- data.frame(Years, PubNumber=unlist(PubNum))

fig <- plot_ly(Data, x = ~Years, y = ~PubNumber, type = 'bar', name = 'Publications',
               marker = list(color = 'rgb(158,202,225)', line = list(color = 'rgb(8,48,107)', width = 1)))
fig <- fig %>% layout(title = paste("Number of PubMed articles containing ", terms, sep=""),
                      yaxis = list(title = 'Count'),
                      xaxis = list(title = "Year"))
fig

https://kumes.github.io/Blog/Search_PubMed/Coronavirus.html

今年すでに論文数が10倍以上に爆増している。。。*4

さらに、ディープラーニング(Deep learning)について同じく検索してみる。

#Deep learning publications in PubMed 
terms <- "deep learning"
Years <- 1970:2020

PubNum <- purrr::map(Years, PubNumber)
Data <- data.frame(Years, PubNumber=unlist(PubNum))

fig <- plot_ly(Data, x = ~Years, y = ~PubNumber, type = 'bar', name = 'Publications',
               marker = list(color = 'rgb(158,202,225)', line = list(color = 'rgb(8,48,107)', width = 1)))
fig <- fig %>% layout(title = paste("Number of PubMed articles containing ", terms, sep=""),
                      yaxis = list(title = 'Count'),
                      xaxis = list(title = "Year"))
fig

https://kumes.github.io/Blog/Search_PubMed/Deep_learning.html

2015-2016年あたりから、生命科学分野でのディープラーニングの応用が目覚ましいものといえる。

いちおう、この検索とグラフ化を1つの関数にしたので、以下の2行で同じことが実行できる(はず)。

source("https://gist.githubusercontent.com/kumeS/a9e612c6bb484451e6328f119fd9ef56/raw/481884897a54e51bc67b7dbd794fcfe9404a8166/PublicationPerYear.R")

PublicationPerYear(Term="deep learning")

本題に入って、googletransによる論文情報の和訳とレポート作成をやってみる

さきほどResultsにリストとして格納した論文情報を和訳してみる。

#念のため、別変数に置き換え
translatedResults <- Results

#Pythonパスの設定とgoogletransライブラリの読み込み
reticulate::use_python("/usr/local/bin/python", required =T)
gt <- reticulate::import(module = "googletrans")$Translator()

#エラーの原因となる、ゴミ文字を消しておく
TEXT01 <- gsub("&quot;", "", translatedResults[[5]])

#雑誌名、論文タイトル、Abstractの順にgoogletransによる和訳の実行
translateResults01 <- gt$translate(text=Results[[3]], src="en", dest='ja')
translateResults02 <- gt$translate(text=Results[[4]], src="en", dest='ja')
translateResults03 <- gt$translate(text=TEXT01, src="en", dest='ja')

#処理関数の定義
"CutText" <- function(x){
  strsplit(strsplit(as.character(x), ", text=")[[1]][2], ", pronunciation=")[[1]][1]
}

#結果の上書き
translatedResults[[3]][2] <-CutText(translateResults01)
translatedResults[[4]][2] <-CutText(translateResults02)
translatedResults[[5]][2] <-CutText(translateResults03)

#結果出力
translatedResults

変数のままだと、テキストが読みにくいので、RMarkdownでhtmlファイルを生成してみる。

以前の記事に倣って、wgetはインストールしておくこと。

skume.hatenablog.com

#RMarkdownフォーマットのダウンロード
system('wget https://gist.githubusercontent.com/kumeS/8a4410c7f9d07a0b49192bcda4bf1e03/raw/b8db496b0c13fa98affd654f03d45e17cf41ea08/Basic_report_jpn.Rmd')

#レンダリング(変数名は上記と同じにしておく)
rmarkdown::render("Basic_report_jpn.Rmd", 
                  output_format = "html_document", 
                  output_file = "output.html")

#htmlのブラウザ表示
browseURL("output.html")

https://kumes.github.io/Blog/Search_PubMed/report_output.html

こんな感じの簡易Rmarkdownレポートが出力される。

まとめ

トレンド解析とともに、論文のサーチを定期的にちゃんとやるきっかけになればと期待したい。

全Rコード in gist

To search the PubMed DB and translate the abstract to the Japanese text. · GitHub

補足

MEDLINEタグ情報*5

PubMedで、文献検索を行うときに、検索クエリに語句を記入して検索すると、タイトル、要旨、著者、MeSH等どこかに含まれる文献が検索される。

雑誌名に限定したい場合や、タイトルに限定したい場合は、タグを指定することで限定できる。

例えば、"cancer"[TA] とすることで、cancer という雑誌で指定できる。応用として、AND、OR、NOT を使って2つ以上の検索結果の論理積・論理和・論理否定も求められる。論理式は大文字で書くことでキーワードと区別される。

PubMedにおける主要なタグ

データフィールド タグ 説明
Affiliation [AD] 筆頭著者の所属機関
All Fields [ALL] 全てのフィールド
Author [AU] 著者。名字+名前の頭文字。徳川家康なら"Tokugawa I"[AU]。名字だけでもOK
First Author [1AU] 筆頭著者
Publication Date [DP] 発行日、2001[DP]等で指定
Full Author Name [FAU] 著者のフルネーム
Last Author [LASTAU] 最終著者
MeSH Terms [MH] MeSH用語で付与された文献の主題
MeSH Major Topic [MAJR] MeSH用語で付与される10~15の主題のうち、2つ程度の主要用語
Page Number [PG] ページ
PMID [PMID] PubMed登録番号
Journal [TA], [JO] 雑誌名
Title [TI] タイトル
Title/Abstract [TIAB] タイトルあるいは要旨
Text word [TW] テキスト本文

参考文献

rpubs.com

datascienceplus.com

amunategui.github.io

stackoverflow.com

plotly.com

*1:https://cran.r-project.org/web/packages/RISmed/index.html

*2:PubMed に収録されている論文にはPubMed ID (PMID) と呼ばれるIDが付与されている

*3:https://ja.wikipedia.org/wiki/MeSH

*4:この図は、2020年6月22日の結果で、6/25には論文数は15k以上になっていた。

*5:https://ja.wikipedia.org/wiki/MEDLINE

【R言語と日英翻訳】「reticulate」パッケージを使えば、Pythonライブラリがインポート・実行できる。そして、R上で「googletrans」を用いた日英翻訳をやってみた件

はじめに

Rの reticulateパッケージは、Python と R の連携性を高めるツール群である*1

つまりは、Rセッション内でPythonのスクリプトやライブラリをインポートして、シームレスにPythonコードを実行できるなど、RからPythonを呼び出すことができる。

また、RとPythonのオブジェクト間の変換も可能である(Ex. R データフレーム <=> Pandas)。

reticulate::importを使用して、R上で、googletransライブラリを読み込んで、日=>英翻訳、戻し翻訳をやってみる。

googletransライブラリのメリット・デメリット

Googletransは、Google翻訳APIを実装した、無料のPythonライブラリである。

メリット

  • 翻訳速度が早い - translate.google.comと同じサーバー使用

  • 自動言語検出

  • バルク翻訳

  • カスタマイズ可能なサービスURL

  • HTTP/2 サポート

デメリット

  • 1日に使用できる回数制限

  • テキストは最大15kまで

  • 安定性がいまいち

  • Googleで正式に提供するAPI Google Cloud Translation は有料

googletransのインストール

まずは、ターミナルを立ち上げて、 pipで、googletransをインストールする。

(2021/6/4に修正)

pip uninstall googletrans

pip install googletrans==4.0.0-rc1

qiita.com

Pythonとpipの設定はこちらの記事を参照のこと。

https://skume.hatenablog.com/entry/2020/05/10/225341skume.hatenablog.com

reticulateのセットアップ

Rを起動して、reticulateをインストールして、ロードする。

install.packages("reticulate")
library(reticulate)

Pythonパスを選択して、reticulate::py_config()で確認する。

reticulate::use_python("/usr/local/bin/python", required =T)

reticulate::py_config()

#python:         /usr/local/bin/python
#libpython:      /usr/local/opt/python/Frameworks/Python.framework/Versions/3.7/lib/python3.7/config-3.7m-darwin/libpython3.7.dylib
#pythonhome:     /usr/local/Cellar/python/3.7.7/Frameworks/Python.framework/Versions/3.7:/usr/local/Cellar/python/3.7.7/Frameworks/Python.framework/Versions/3.7
#version:        3.7.7 (default, Mar 10 2020, 15:43:33)  [Clang 11.0.0 (clang-1100.0.33.17)]
#numpy:          /Users/skume/Library/Python/3.7/lib/python/site-packages/numpy
#numpy_version:  1.16.3
#
#NOTE: Python version was forced by use_python function

/usr/local/bin/pythonとなっており、これでOK。

RからPython googletransを呼び出す

Pythonライブラリのインポートには、 reticulate::import関数を使う。

gt <- reticulate::import(module = "googletrans")

# GtにTranslator関数を渡す
Gt <- gt$Translator()

ヘルプ表示については、補足を参照のこと。

googletransの実行

挨拶の基本として、こんにちわを英訳してみる。

Result <- Gt$translate(text="こんにちわ", src="ja", dest='en')

class(Result)
#[1] "googletrans.models.Translated"
#[2] "python.builtin.object"        

Result
#Translated(src=ja, dest=en, text=Hello, pronunciation=None, extra_data="{'translat...")
#"text="の後ろが、翻訳された結果

translateのオプション

text: 翻訳する文字列

src: 元文の言語(指定無しなら、自動判定)

ja: 日本語, en: 英語, de: ドイツ語, ko: 韓国語, fr: フランス語

dest: 翻訳したい言語(指定無しなら、英語)

結果が"googletrans.models.Translated"で返ってくるので、"text="後の翻訳された結果を抜き出すスクリプトが必要となる。

ここでは、CutTextという関数を新たに定義してみる。

"CutText" <- function(x){
  strsplit(strsplit(as.character(x), ", text=")[[1]][2], ", pronunciation=")[[1]][1]
  }

a <- CutText(Result)
a

#[1] "Hello"

もう少し長い文章で、実行してみる。

例文

Googleの無料サービスなら、単語、フレーズ、ウェブページを英語から100以上の他言語にすぐに翻訳できます。

ResultX <- Gt$translate(text="Googleの無料サービスなら、単語、フレーズ、ウェブページを英語から100以上の他言語にすぐに翻訳できます。", 
                        src="ja", dest='en')

b <- CutText(ResultX)
b

#[1] "With Google's free service, you can instantly translate words, 
#phrases and web pages from English into over 100 other languages."

#さらに、戻し翻訳をしてみると

ResultY <- Gt$translate(text=b, src="en", dest='ja')
c <- CutText(ResultY)
c

#[1] "Googleの無料サービスを利用すると、単語、フレーズ、ウェブページを
#英語から他の100以上の言語に即座に翻訳できます。"

結果、ほぼ違和感なく、戻し翻訳もできている。

まとめ

R上で、日英翻訳ができれば、いちいちGoogle翻訳のページにいかなくても良くなるので、少しだけ便利かも。

最終的には、上記全てを組み込み関数にしたいところ、、

補足

Rから、Python ライブラリのヘルプ表示

#py_help(gt)
#OR
#py_help(gt$client$Translator)
#OR
#py_help(gt$Translator)
#OR
py_help(gt$Translator$translate)

以下が、ヘルプの表示結果

Help on class Translator in module googletrans.client:

class Translator(builtins.object)
 |  Translator(service_urls=None, user_agent='Mozilla/5.0 (Windows NT 10.0; Win64; x64)', raise_exception=False, proxies: Dict[str, httpcore._sync.base.SyncHTTPTransport] = None, timeout: httpx._config.Timeout = None)
 |  
 |  Google Translate ajax API implementation class
 |  
 |      You have to create an instance of Translator to use this API
 |  
 |      :param service_urls: google translate url list. URLs will be used randomly.
 |                           For example ``['translate.google.com', 'translate.google.co.kr']``
 |      :type service_urls: a sequence of strings
 |  
 |      :param user_agent: the User-Agent header to send when making requests.
 |      :type user_agent: :class:`str`
 |  
 |      :param proxies: proxies configuration.
 |                      Dictionary mapping protocol or protocol and host to the URL of the proxy
 |                      For example ``{'http': 'foo.bar:3128', 'http://host.name': 'foo.bar:4012'}``
 |      :type proxies: dictionary
 |  
 |      :param timeout: Definition of timeout for httpx library.
 |                      Will be used for every request.
 |      :type timeout: number or a double of numbers
 |  ||||||| constructed merge base
 |      :param proxies: proxies configuration.
 |                      Dictionary mapping protocol or protocol and host to the URL of the proxy
 |                      For example ``{'http': 'foo.bar:3128', 'http://host.name': 'foo.bar:4012'}``
 |      :param raise_exception: if `True` then raise exception if smth will go wrong
 |      :type raise_exception: boolean
 |  
 |  Methods defined here:
 |  
 |  __init__(self, service_urls=None, user_agent='Mozilla/5.0 (Windows NT 10.0; Win64; x64)', raise_exception=False, proxies: Dict[str, httpcore._sync.base.SyncHTTPTransport] = None, timeout: httpx._config.Timeout = None)
 |      Initialize self.  See help(type(self)) for accurate signature.
 |  
 |  detect(self, text, **kwargs)
 |      Detect language of the input text
 |      
 |      :param text: The source text(s) whose language you want to identify.
 |                   Batch detection is supported via sequence input.
 |      :type text: UTF-8 :class:`str`; :class:`unicode`; string sequence (list, tuple, iterator, generator)
 |      
 |      :rtype: Detected
 |      :rtype: :class:`list` (when a list is passed)
 |      
 |      Basic usage:
 |          >>> from googletrans import Translator
 |          >>> translator = Translator()
 |          >>> translator.detect('이 문장은 한글로 쓰여졌습니다.')
 |          <Detected lang=ko confidence=0.27041003>
 |          >>> translator.detect('この文章は日本語で書かれました。')
 |          <Detected lang=ja confidence=0.64889508>
 |          >>> translator.detect('This sentence is written in English.')
 |          <Detected lang=en confidence=0.22348526>
 |          >>> translator.detect('Tiu frazo estas skribita en Esperanto.')
 |          <Detected lang=eo confidence=0.10538048>
 |      
 |      Advanced usage:
 |          >>> langs = translator.detect(['한국어', '日本語', 'English', 'le français'])
 |          >>> for lang in langs:
 |          ...    print(lang.lang, lang.confidence)
 |          ko 1
 |          ja 0.92929292
 |          en 0.96954316
 |          fr 0.043500196
 |  
 |  translate(self, text, dest='en', src='auto', **kwargs)
 |      Translate text from source language to destination language
 |      
 |      :param text: The source text(s) to be translated. Batch translation is supported via sequence input.
 |      :type text: UTF-8 :class:`str`; :class:`unicode`; string sequence (list, tuple, iterator, generator)
 |      
 |      :param dest: The language to translate the source text into.
 |                   The value should be one of the language codes listed in :const:`googletrans.LANGUAGES`
 |                   or one of the language names listed in :const:`googletrans.LANGCODES`.
 |      :param dest: :class:`str`; :class:`unicode`
 |      
 |      :param src: The language of the source text.
 |                  The value should be one of the language codes listed in :const:`googletrans.LANGUAGES`
 |                  or one of the language names listed in :const:`googletrans.LANGCODES`.
 |                  If a language is not specified,
 |                  the system will attempt to identify the source language automatically.
 |      :param src: :class:`str`; :class:`unicode`
 |      
 |      :rtype: Translated
 |      :rtype: :class:`list` (when a list is passed)
 |      
 |      Basic usage:
 |          >>> from googletrans import Translator
 |          >>> translator = Translator()
 |          >>> translator.translate('안녕하세요.')
 |          <Translated src=ko dest=en text=Good evening. pronunciation=Good evening.>
 |          >>> translator.translate('안녕하세요.', dest='ja')
 |          <Translated src=ko dest=ja text=こんにちは。 pronunciation=Kon'nichiwa.>
 |          >>> translator.translate('veritas lux mea', src='la')
 |          <Translated src=la dest=en text=The truth is my light pronunciation=The truth is my light>
 |      
 |      Advanced usage:
 |          >>> translations = translator.translate(['The quick brown fox', 'jumps over', 'the lazy dog'], dest='ko')
 |          >>> for translation in translations:
 |          ...    print(translation.origin, ' -> ', translation.text)
 |          The quick brown fox  ->  빠른 갈색 여우
 |          jumps over  ->  이상 점프
 |          the lazy dog  ->  게으른 개
 |  
 |  ----------------------------------------------------------------------
 |  Data descriptors defined here:
 |  
 |  __dict__
 |      dictionary for instance variables (if defined)
 |  
 |  __weakref__
 |      list of weak references to the object (if defined)

googleLanguageRの「No authorization yet in this session!」問題を解決するのは面倒そう!【6/27追加】

Google Cloud Translation API

googleLanguageRというGoogle翻訳のAPIがあるのだが、そのまま実行すると、エラーとなる。

install.packages("googleLanguageR")
library(googleLanguageR)

text <- "to administer medicince to animals is frequently a very difficult matter, and yet sometimes it's necessary to do so"

# 英語 => 日本語 への翻訳
gl_translate(text, target = "ja")$translatedText

#2020-06-27 19:44:48 -- Translating text: 115 characters - 
#  ℹ 2020-06-27 19:44:48 > No authorization yet in this session!
#  ℹ 2020-06-27 19:44:48 > No  .httr-oauth  file exists in current working directory.  Do library authentication steps to provide credentials.
#エラー: Invalid token

https://cran.r-project.org/web/packages/googleAuthR/vignettes/google-authentication-types.html Google authentication types for R

github.com

このあたりで、解決策について、いろいろと議論されているが、設定不要のgoogletransを使うので良いのではないかと思う。

参考資料

pypi.org

rstudio.github.io