京橋のバイオインフォマティシャンの日常

南国のビーチパラソルの下で、Rプログラムを打ってる日常を求めて、、Daily Life of Bioinformatician in Kyobashi of Osaka

MacでOpen-interpreterのインストールとR言語の実行について: Macターミナル上でLLMを動かしてみよう

この記事の音声読み上げ

VOICEVOX:冥鳴ひまり

はじめに

Open Interpreterは、自然言語で指示を与えることでコードを書き、実行まで行ってくれるツールであり、これはローカル環境にインストールすることで利用可能となる、OpenAI社のCode Interpreter(Advanced Data Analysis)のオープンソース版と言えます。

github.com

例えば、Macのターミナル上でOpen Interpreterをインストールすることで、大規模言語モデル・Large Language Model (以下、LLM) を利用することができるようになります。

GPT-4を使用するには、OpenAIのAPIキーが必要ですが、Code Llamaというローカルで動作するコード生成モデルも無料で利用可能であり、ただし、インストールと適切な計算環境の設定が必要です。

今回は、macOSにOpen Interpreter(バージョン open-interpreter-0.1.6 & openai-0.28.1)をインストールし、その設定とターミナル上でのGPT-4の動作を確認した結果を報告します。

ターミナル上でのローカル実行は、多くの利点をもたらすかもしれません。。

プレインストールの設定

Open InterpreterはPythonのライブラリであるため、pipコマンドを使用してインストールを行います。

初めに、Pythonとpipのバージョンを確認しましたが、私の環境では、minicondaを使用してインストールされたPython 3.9.12とpip 21.2.4が利用されていました。しかし、これらのバージョンはOpen Interpreterとの相性が良くないことが判明しました。

こんな状況でした。

 

(このとき、バージョン確認で実行したコマンドは以下の通りです。)

# バージョン確認コマンド
which python
#/Users/sas/miniconda/bin/python

python -V
#Python 3.9.12

which pip
#/Users/sas/miniconda/bin/pip

pip -V
#pip 21.2.4 from /Users/sas/miniconda/lib/python3.9/site-packages/pip (python 3.9)

そのため、Pythonとpipの最新版をインストールし、私は/opt/homebrew/binにあるpip3.11を使用しました。

/opt/homebrew/bin/pip3.11 -V
#pip 23.2.1 from /opt/homebrew/lib/python3.11/site-packages/pip (python 3.11)

open-interpreterのインストールと設定

インストールはpipコマンドを使用し、open-interpreterを指定します。 私の環境ではパスが通っていないため、フルパスでpipコマンドを実行しました。

#インストール
/opt/homebrew/bin/pip3.11 install open-interpreter

#アップグレード時
/opt/homebrew/bin/pip3.11 install --upgrade open-interpreter

インストールが完了したら、ヘルプを表示して動作を確認します。

このバージョンでは、すでに、--versionの引数は廃止されているようです。

ヘルプ表示の実行結果は以下の通りです。

# ヘルプ表示
$ interpreter -h        

usage: interpreter [-h] [-s SYSTEM_MESSAGE] [-l] [-y] [-d] [-m MODEL]
                   [-t TEMPERATURE] [-c CONTEXT_WINDOW] [-x MAX_TOKENS]
                   [-b MAX_BUDGET] [-ab API_BASE] [-ak API_KEY] [--config]
                   [--conversations] [-f]

Open Interpreter

options:
  -h, --help            show this help message and exit
  -s SYSTEM_MESSAGE, --system_message SYSTEM_MESSAGE
                        prompt / custom instructions for the language model
  -l, --local           run in local mode
  -y, --auto_run        automatically run the interpreter
  -d, --debug_mode      run in debug mode
  -m MODEL, --model MODEL
                        model to use for the language model
  -t TEMPERATURE, --temperature TEMPERATURE
                        optional temperature setting for the language model
  -c CONTEXT_WINDOW, --context_window CONTEXT_WINDOW
                        optional context window size for the language model
  -x MAX_TOKENS, --max_tokens MAX_TOKENS
                        optional maximum number of tokens for the language
                        model
  -b MAX_BUDGET, --max_budget MAX_BUDGET
                        optionally set the max budget (in USD) for your llm
                        calls
  -ab API_BASE, --api_base API_BASE
                        optionally set the API base URL for your llm calls
                        (this will override environment variables)
  -ak API_KEY, --api_key API_KEY
                        optionally set the API key for your llm calls (this
                        will override environment variables)
  --config              open config.yaml file in text editor
  --conversations       list conversations to resume
  -f, --fast            (depracated) runs `interpreter --model gpt-3.5-turbo`

Open-interpreterの使用

続いて、実際に、Open-interpreterを使ってみます。

コマンドはinterpreterで、その基本的な使用方法として、-y-m [モデル名]--api_key [OpenAI APIキー]を引数として指定して使います。

# 基本コマンド
interpreter -y -m [モデル名] --api_key [APIキー]

しかし、どうも困ったことに、GPT-4のモデルが正しく指定されないようです。

これはバグかどうか不明ですが、将来のアップデートで修正されることを期待しています。

使用したAIモデルに質問したら、彼はGPT-3.5のようです。

日本語と英語の両方で実行が可能であることが確認されましたが、GPT-3.5なら、英語で使うのが無難ですね。

続いて、実行例として、以下のプロンプトを実行しました。

日本語プロンプト: 
R言語で主成分分析のコードを示してください。Rコードも示してください。  

下図がプロンプトの実行結果です。

1枚目

2枚目

結果 3枚目

結果 4枚目

結果 5枚目

英語プロンプト: 
Please show the code for Principal Component Analysis in R. Please also show the R code.  

下図がプロンプトの実行結果です。

英語プロンプトでの結果

まとめ

今回の環境では、なぜかGPT-4を使用することができず、ガクッとやる気が落ちましたけど、、、

作成したコードを、ローカル環境でコード実行できる魅力は非常に大きいものがあります。

とりあえず、今後に期待しています。

M1 Macでstream resultが制御できないバグについて

LLM実行時にstream resultが制御できずに、debug_modeが常に走ってしまうバグについて、 解決方法がGitHubで議論されていて、litellmのアップグレードで回避できるようです。

#litellmのアップグレード(litellm-0.9.2)
/opt/homebrew/bin/pip3.11 install --upgrade litellm 

#...
#ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour #is the source of the following dependency conflicts.
#open-interpreter 0.1.9 requires litellm<0.8.0,>=0.7.5, but you have litellm 0.9.2 which is incompatible.
#Successfully installed litellm-0.9.2

github.com

補足: interpreter -yでの実行時の表示

interpreter -y を実行

補足: Code-Llamaに進んだ場合のメッセージ

───────────────────────────────────────────────────────────────────────────────────────────────

▌ OpenAI API key not found                                                                   

To use GPT-4 (recommended) please provide an OpenAI API key.                                   

To use Code-Llama (free but less capable) press enter.                                         

───────────────────────────────────────────────────────────────────────────────────────────────

OpenAI API key: 

▌ Switching to Code-Llama...                                                                 

Tip: Run interpreter --local to automatically use Code-Llama.                                  

───────────────────────────────────────────────────────────────────────────────────────────────

Open Interpreter will use Code Llama for local execution. Use your arrow keys to set up the    
model.                                                                                         

[?] Parameter count (smaller is faster, larger is more capable): 7B
 > 7B
   13B
   34B

[?] Quality (smaller is faster, larger is more capable): Small | Size: 2.6 GB, Estimated RAM us[?] Quality (smaller is faster, larger is more capable): Medium | Size: 3.8 GB, Estimated RAM u[?] Quality (smaller is faster, larger is more capable): Small | Size: 2.6 GB, Estimated RAM us[?] Quality (smaller is faster, larger is more capable): Small | Size: 2.6 GB, Estimated RAM us[?] Quality (smaller is faster, larger is more capable): Medium | Size: 3.8 GB, Estimated RAM u[?] Quality (smaller is faster, larger is more capable): Small | Size: 2.6 GB, Estimated RAM usage: 5.1 GBSize: 2.6 GB, Estimated RAM usage: 5.1 GB
 > Small | Size: 2.6 GB, Estimated RAM usage: 5.1 GB
   Medium | Size: 3.8 GB, Estimated RAM usage: 6.3 GB
   Large | Size: 6.7 GB, Estimated RAM usage: 9.2 GB
   See More

[?] Use GPU? (Large models might crash on GPU, but will run more quickly) (Y/n): n

This language model was not found on your system.

Download to `/Users/sas/Library/Application Support/Open Interpreter/models`? 
[?]  (Y/n): n


 Download cancelled. Exiting. 
 
 ```
 
 

【MacOS X版】R言語とRStudioでGitHub Copilotを活用する方法: 設定ガイドと使い方

はじめに

最近の生成AIの勢いはとどまることを知らず、データ分析やプログラミング時の面倒な作業の大半がAIで解決されつつあります。しかし、「自分でコードを書く」という、作業はまだ必要です。そんなときに役立つのがGitHub Copilot(かもしれない)です。

GitHub Copilotとは、ユーザーが書いた、各種のプログラミング言語のコードやテキストをもとにして、次に書くべきコードを予測してくれる、AIベースのコード補完ツールです。

情報察知が遅れてましたが、2023年7月中旬くらいから、GitHub Copilotが、R言語の主要なIDEであるRStudio上でも使えるようになりました。 MichelNivard / gptstudioというRパッケージがすでに2023年3月にリリースされていて、GPT-3.5 APIを使った、Copilotライクな機能が実装されていたため、このニュースまでウォッチしてませんでした。。。

RStudio上でのGitHub Copilotの使い方としては、まずは、GitHubアカウントでCopilotを登録します。最初の30日間は無料トライアルがあり、その後は1ヶ月10ドルのサブスク(年間契約は100ドル)となります。そして、RStudioのDairy Builds版をインストールして、GitHub Copilotの諸設定を行い、利用開始という流れになります。

この記事は、R言語とRStudioでのGitHub Copilotの各種設定と使い方に焦点を当てています。 R言語のコミュニティにとって、この新機能の導入はコーディングの効率化に貢献することでしょう(おそらくね)。

GitHubアカウント側での設定

まず、GitHubアカウントが登録済みであることを前提とします。 続いて、無難にGitHub Copilotの概要ページに行きまして、「GitHub Copilotを試す」をクリックします。

https://docs.github.com/ja/copilot/getting-started-with-github-copilot

サインアップページの方に移行しますので、サブスクのタイプを選択して、Get accessをクリックします。

https://github.com/github-copilot/signup

続いて、住所とか必要情報を入力して、saveをクリックします。

支払い情報を入力して、Save payment informationをクリックします。

続いて、Select your preferencesを設定します。私は、BlockOFFで設定しました。

これらの設定は後で変更可能です。変更する場合には、GitHubのTry Copilotの項目で修正します。

以上で、GitHub側の設定は完了です。 過去情報で、トライアル期間が60日間という話もありましたが、現在は30日のみのようです。

RStudio daily版のインストール

GitHub CopilotをRStudio上で使う場合には、RStudio Stable版ではなく、下記のRStudioウェブサイト(https://dailies.rstudio.com/)からRStudio daily版をダウンロードして使います。

https://dailies.rstudio.com/

今回、私の実行環境がMacということで、RStudio-2023.09.0-daily-337.dmgというMacOS X 11+版のインストーラーを使用しました。

daily版も通常のRStudioのアイコンと変わりません、いちおう、Stable版と横並びにしてみた。

これが最も大切ですが、RStudio上でGitHub Copilotが動作しなくなったら、新しいRStudio daily版をインストール入れ直してください。これが結構大事です!!もしかしたら、毎日使うときにインストールが必要かもです。。。

RStudio上でのGlobal options設定

RStudio側の設定ですが、メニューバーのToolsから、Global options...に進みます。

Optionsの一番下に、Copilotの項目が追加されていますので、それをクリックします。

Enable GitHub Copilotにチェックを入れて、ポップアップのInstallをクリックします。

GitHun Copilot agent Successfully installedが表示されれば、OKをクリックします。

ここで(無難に)、、、RStudioを再起動します(不要かも)。

そして、もう一度、メニューバーのToolsから、Global options...に進み、CopilotオプションでSign Inボタンが出現していれば、クリックします。

Navigateページ(https://github.com/login/device)に進んで、表示されている、Verification codeを打ち込みます。

Authorize GitHub Copilot Pluginをクリックして、アカウントと連携させます。

CopilotオプションでSign Outボタンが出現していれば、アカウント連携は無事に完了しています。

うまく適用されていれば、Rソースの右下に、Copilot Pluginの起動状況が表示されます。以下のような感じです。

RStudioのアプリケーションをクリックして、直接起動して使うと、うまく動きます。一方、RprojからRStudioを起動させると、うまく動かないのかな、、、

使用方法としては、Rファイルを作成して、何かプログラムかテキストを書いていくと、設定された間隔(300msとか)でコード予測がされて、グレイアウトしたコードが表示されます。それでオーケーならTabを押せば、予測コードが実際のコードとして採用されます。

予めやりたいことを、テキスト(日本語、英語はどちらでも大丈夫そう)で打っておくと、その内容に沿って、コード作成のサポートをしてくれるのかな。ここの部分は、別途、GPT-4を使うのが良さそうかも。

まとめ

GitHub CopilotのRStudio上での利用について、アカウント登録からRStudioでの設定までを概説しました。

Rコードの予測機能がどの程度使えそうかなどは、今後レポートしたいと思います。

現状の個人的な所感をいうと、変に好き嫌いせずに、GitHub CopilotとOpenAI GPT-4 APIとを適時組み合わせて、使い倒す感じでいくのが最良の選択なのかもですね。

Rで、GPT APIを使うなら、この辺りのパッケージがお勧めです。

github.com

github.com

参考記事

koreedaさんのブログ記事「RstudioでGitHub Copilotが使えるようになったので試してみる」を見つけて、参考にしています。

koreedaさんのブログ記事

koreedaさんのブログ記事がGoogle 検索でトップ表示されました。

https://zenn.dev/t_koreeda/articles/6beb2d070564d8

【2023年8月版】HDDとSSDの選び方ガイド:大容量から高速アクセスまで、最適なストレージの組み合わせを見つけるには!!

はじめに - HDDとSSDの重要性と用途

現代のコンピューター技術におけるデータの保存とアクセスの中心となるのが、HDD(ハードディスクドライブ)とSSD(ソリッドステートドライブ)です。

HDDは大容量でコスト効率が良く、SSDは高速な読み取り・書き込み速度が特徴です。

このガイドは、HDDとSSDの選び方に迷っている方々へ向けて執筆しています。 初心者から上級者まで、コンピューターのパフォーマンスを向上させたい方に役立つ情報を提供しています。

HDDとSSDの基本的な違い

HDDは、大容量のデータ保存が可能で低価格でることがメリットです。一方で、一般的に動作が遅いです。

SSDは、高速なデータアクセスが可能で、価格はHDDより高いのですが、耐久性と速度が優れています。

大まかな、ユーザーレベルごとの用途と選び方は以下の通りです。

  • 一般ユーザー: HDDで十分。基本的な文書作成やウェブ閲覧などの用途には、大容量でコスト効率の良いHDDが適しています。

  • ゲーマーや動画編集者: SSDがおすすめです。高速なデータアクセスが必要な場合、耐久性と速度が優れたSSDを選ぶと良いでしょう。

  • ハイブリッド使用: HDDとSSDの組み合わせが効率的。大量のデータを保存するHDDと、OSや頻繁に使用するアプリケーションを高速にアクセスするSSDの組み合わせは、多岐にわたる用途に対応します。

SSDの選び方

SSDの容量については、500GBから1TBが一般的な使用に適しています。

インターフェイスについては、SATAは一般的で安価ですが、NVMe/PCIeなどの技術も検討するとよいでしょう。

形状については、2.5インチのSATA、M.2、AICなど、使用するデバイスに合った形状を選ぶ必要があります。

耐久性については、長期間の使用や頻繁な書き込みが予想される場合は、耐久性が高いモデルを選ぶとよいでしょう。

HDDとSSDの組み合わせ方

HDDとSSDを組み合わせることで、大容量の保存と高速なアクセスを両立することが可能です。

例えば、以下のような組み合わせが想定されます。

  • エントリーレベル: 初心者や基本的な用途には、128GBのSSDと1TBのHDDの組み合わせが最適です。OSや主要なアプリケーションを高速に動作させるSSDと、大量のデータを保存するHDDのバランスが取れます。

  • 中級者向け: より多くのデータを高速に扱いたい方には、256GBのSSDと2TBのHDDの組み合わせがおすすめです。動画編集やゲームなど、データの読み書きが頻繁に行われる用途に適しています。

  • プロフェッショナル: 高度な作業を行うプロフェッショナルには、512GB以上のSSDと4TB以上のHDDの組み合わせが必要です。大規模なプロジェクトや複雑なタスクを効率的に処理するための豊富なストレージ容量と高速アクセスが可能になります。

このような組み合わせにより、用途に応じた最適なストレージソリューションを実現できます。

また、最新の技術と市場の動向を理解することで、コンピュータのパフォーマンスを向上させるための適切な選択が可能になります。

商品紹介セクション - HDD 人気ランキング

バッファロー 外付けハードディスク 4TB HD-AD4U3

バッファローからのこの外付けハードディスクは、4TBの大容量を誇ります。多岐にわたる対応機種と、効果的な放熱設計が特徴です。

  • 特徴: 静音&コンパクトなデザイン。熱伝導率の低い筐体内の空気層を減らし、発熱を効果的に放熱。
  • 価格: アマゾンでの価格はこちらから確認。
  • 利点:
    • 多岐にわたる対応機種(テレビ、PC、PS4など)。
    • 1年保証、日本製。
    • 【Amazon限定】簡易包装箱でお届け。
  • 欠点: データ復旧サービスは有償対応。
  • アマゾンのリンク: 商品ページ
  • 購入者の評価: アマゾンでの外付ハードディスクドライブの売れ筋ランキング1位。

詳細仕様

  • 容量: 4.0TB
  • 対応機種: USB3.1(Gen1)/USB3.0/2.0 Type-A端子を搭載するWindowsパソコンおよびMac
  • 対応OS: Windows 10/8.1/7、Mac OS X 10.11以降
  • 対応TV: シャープ「アクオス」、ソニー「ブラビア」、他多数
  • 接続規格: USB3.1(Gen1)/USB3.0/2.0
  • サイズ: 114×33×171mm、質量:約900g
  • 電源: AC電源
  • 保証期間: 1年 日本製
  • 付属品: USB3.1(Gen1)ケーブル(1m)、ACアダプター、取扱説明書(保証書)

このハードディスクは、多岐にわたる用途に対応し、信頼性と機能性を兼ね備えています。特に、効果的な放熱設計は長時間の使用にも耐える堅牢さを提供します。

UnionSine 外付けハードディスク超薄型外付けHDDポータブルハードディスク 1TB 2.5インチ HD2510

  • 特徴: 1TBの容量で超薄型。滑り止めデザインと静かな動作。
  • 価格: アマゾンでの価格はこちらから確認。
  • 利点:
    • 3年保証。
    • PS4, PC, Xboxなど多岐に対応。
    • 超高速データ転送(USB 3.0対応)。
    • アルミニウム混信防止層での熱放散。
  • 欠点: 特になし。
  • アマゾンのリンク: 商品ページ
  • 購入者の評価: アマゾンでの外付ハードディスクドライブの売れ筋ランキング2位。

詳細仕様

  • デジタルストレージ容量: 1 TB
  • ハードディスクインターフェイス: USB 3.0
  • 接続技術: USB
  • ブランド: UnionSine
  • 特徴: 3年保修,滑り止め,静かな
  • ハードディスクフォームファクタ: 2.5 インチ
  • ハードディスクの説明: メカニカルハードデイスク
  • 対応デバイス: PS4, PC, Xbox
  • 設置タイプ: プラグイン
  • : ブラック
  • その他: ミラーロゴストリップとストライプの滑り止めデザイン、プラグアンドプレイ対応、超高速データ転送、商品内容にポータブルハードドライブ、USB 3.0ケーブル、ユーザーマニュアル、ギフトタイプのシェルパッケージ付き。

BUFFALO USB3.1(Gen.1)対応 ポータブルHDD スタンダードモデル ブラック 1TB HD-PCG1.0U3-BBA

このバッファローのポータブルHDDは、1TBの容量を持ち、持ち運びに便利な設計がされています。故障予測機能でデータを守るため、安心して使用できます。

  • 特徴: 滑り止めの持ち運び安心設計。故障予測機能でデータ保護。
  • 価格: アマゾンでの価格はこちらから確認。
  • 利点:
    • 軽量でコンパクトなデザイン。
    • WindowsとMacの両方に対応。
    • 1年保証付き。
  • 欠点: 特に明確な欠点はありません。
  • アマゾンのリンク: 商品ページ
  • 購入者の評価: アマゾンでの外付ハードディスクドライブの売れ筋ランキング3位。

詳細仕様

  • デジタルストレージ容量: 1 TB
  • ハードディスクインターフェイス: USB 3.1
  • 接続技術: USB
  • ブランド: バッファロー
  • 特徴: 滑り止め
  • ハードディスクフォームファクタ: 5.47 インチ
  • ハードディスクの説明: メカニカルハードデイスク
  • 対応デバイス: Win ; Mac
  • : ブラック
  • サイズ: 75×14×117mm、質量:約175g
  • 付属品: USB3.1(Gen1)ケーブル(50cm)、取扱説明書
  • 保証期間: 1年

このポータブルHDDは、持ち運びに便利で、データ保護にも優れています。価格も手頃で、初心者から上級者まで幅広くおすすめできる商品です。

商品紹介セクション - SSD 人気ランキング

バッファロー SSD 外付け 1.0TB 超小型 USB3.2Gen1 ブラック SSD-PUT1.0U3-B/N

バッファローのこのSSDは、1TBの容量を持ち、超小型でコンパクトなデザインが特徴です。PS5/PS4対応で、最大約430MB/sの高速ファイル転送が可能です。

  • 特徴: 最大約430MB/sの高速転送。バスパワー駆動でケーブル不要。動作音が気にならないSSD。
  • 価格: アマゾンでの価格はこちらから確認。
  • 利点:
    • 超小型で持ち運び便利。
    • PS5/PS4、テレビ、デスクトップ、ノートパソコン対応。
    • 1年保証付き。
    • 暗号化機能付き。
  • 欠点: 有償のデータ復旧サービス。
  • アマゾンのリンク: 商品ページ
  • 購入者の評価: アマゾンでの外付SSDの売れ筋ランキング1位。

詳細仕様

  • デジタルストレージ容量: 1 TB
  • ハードディスクインターフェイス: USB 3.2
  • 接続技術: USB
  • ブランド: バッファロー
  • 特徴: PlayStation 4 動作確認済み, PlayStation5 動作確認済み
  • ハードディスクフォームファクタ: 2.86 インチ
  • ハードディスクの説明: ソリッドステートハードドライブ
  • 対応デバイス: PS4, テレビ, PS5, デスクトップ, ノートパソコン
  • : 黒
  • 保証: 1年
  • 動作環境とインターフェイス: Windows、Mac、PS5/PS4、TV対応、Chrome OS。USB( USB 3.2(Gen 1)/3.1(Gen 1)/3.0/2.0)。端子形状:Type-A
  • 付属品: 取扱説明書(保証書)
  • セキュリティー: SecureLock Mobile2(暗号化:AES 256bitソフトウェア方式)

このSSDは、ゲーム機やパソコン、テレビとの互換性が高く、高速なデータ転送が可能です。小型で持ち運びに便利なため、外出先での使用にも最適です。

SanDisk SSD 外付け 1TB USB3.2Gen2 SDSSDE61-1T00-GH25 エクストリーム ポータブルSSD V2

SanDiskのこの外付けSSDは、1TBの容量と最大読出し速度1050MB/秒、最大書込み速度1000MB/秒の高速転送を提供します。防滴・防塵性能があり、屋外への持ち運びにも安心です。

  • 特徴: 高解像度の写真や動画を超高速にバックアップ、編集、管理。USB 3.2 Gen 2に対応。IP55の防滴・防塵性能。
  • 価格: アマゾンでの価格はこちらから確認。
  • 利点:
    • 超高速転送。
    • PS4, PS5, ゲーム機, Windows, Mac対応。
    • 信頼のメーカー5年保証。
    • 環境に配慮したエコパッケージ。
  • 欠点: 特になし。
  • アマゾンのリンク: 商品ページ
  • 購入者の評価: アマゾンでの外付SSDの売れ筋ランキング2位。

詳細仕様

  • デジタルストレージ容量: 1 TB
  • ハードディスクインターフェイス: USB 3.2
  • 接続技術: USB
  • ブランド: SanDisk
  • 特徴: 防塵
  • ハードディスクフォームファクタ: 1.96 インチ
  • ハードディスクの説明: ソリッドステートハードドライブ
  • 対応デバイス: PS4, PS5, ゲーム機, Windows, Mac
  • : ブラック

このSSDは、高速なデータ転送と防滴・防塵性能を兼ね備えており、ゲームや高解像度のメディアの管理に最適です。信頼のメーカー保証とエコパッケージも魅力的なポイントです。

バッファロー SSD 外付け 2.0TB USB3.2 Gen2 SSD-SCT2.0U3BA/N

バッファローのこの外付けSSDは、2TBの容量と最大読込速度600MB/秒の高速転送を提供します。PS5/PS4の動作確認済みで、ゲーム機やテレビにも対応しています。

  • 特徴: 高速なファイル転送、ケーブルレスで持ち運び便利、動作音が気にならない。
  • 価格: アマゾンでの価格はこちらから確認。
  • 利点:
    • 最大約600MB/sの高速転送。
    • ゲーム機やテレビ対応。
    • 1年間の保証。
    • 小型サイズで持ち運び便利。
  • 欠点: 特になし。
  • アマゾンのリンク: 商品ページ
  • 購入者の評価: アマゾンでの外付SSDの売れ筋ランキング3位。

詳細仕様

  • デジタルストレージ容量: 2 TB
  • ハードディスクインターフェイス: USB 3.2
  • 接続技術: USB
  • ブランド: バッファロー
  • 特徴: PlayStation 4 動作確認済み, PlayStation5 動作確認済み
  • ハードディスクフォームファクタ: 2.5 インチ
  • ハードディスクの説明: ソリッドステートドライブ
  • 対応デバイス: テレビ, ゲーム機
  • : 黒

このSSDは、ゲーム機やテレビとの互換性、高速なデータ転送、コンパクトなデザインなど、多岐にわたる用途に対応しています。1年間の保証も付いており、信頼性も高い製品です。

キーワード

  • HDD
  • SSD
  • ストレージ
  • 大容量
  • 高速アクセス
  • データ保存
  • コンピューター
  • ソリッドステートドライブ
  • ハードディスクドライブ
  • ゲーム
  • 動画編集
  • ハイブリッド使用
  • 耐久性
  • インターフェイス