デジタイズド・メディシン:ビッグデータと薬の開発


いずれにしても、仮説を実証するため従来より用いられてきた試験管による試験(in vitro)や生体における試験(in vivo)、そして臨床でゴールド・スタンダードな二重盲検比較試験などに対し、近年コンピュータによる試験(in silico)が急速に発達しています。

このデジタイズド・メディシンのビッグデータ活用も、このin silicoに入るでしょう。IEEEの会報誌をみていると、ここに使われている技術開発の勢いがすごくて、ビッグデータさえあれば全てコンピュータで解決すると錯覚してしまいそうです。

ちなみに、ビッグデータもバズワードで、エンジニアが言ういわゆるビッグデータと臨床研究でBiostatisticianやComputational Biologistがいうビッグーデータの意味に乖離があると感じました。さらにIEEE SPECTRUMのカバーでビッグデータとありますが、特集の全部がビッグデータを利用しているわけではありません。

そんなビッグデータですが、製薬業界では臨床試験が多額の研究開発費により推進されています。すると、ビッグデータさえあれば臨床試験もいらなくなるのでしょうか。

わたしの家族のIEEEエンジニアによれば「エンジニアは問題を解決しようとする」そうです。ということは臨床上の問題さえ定義すれば、最近問題の多い臨床試験をせずとも、エンジニアがビッグデータで解決してくれるのでしょうか。

これらの疑問に答えるときに、わたしたちはその実験システムの設定とその目的を考える必要があると思います。

ビッグデータはその名のとおり、データのサイズが大きい。例えば、何万人、何十万人という患者の遺伝子データを集めて薬剤の治療効果を遺伝子タイプ別に解析することができる。そのような解析結果が実際、PharmGKBというゲノム薬理学の情報機関に集められています。PharmGKB発行の薬剤の遺伝子タイプ別用量用法に関するCPICガイドラインがアメリカの多くの医療機関、とくに病院薬剤師に活用されています。

しかし、CPICガイドラインにおける薬剤の遺伝子別情報は、信頼度レベルが大変高いもの(レベルA)から低いもの(レベルD)まであります。これは元々のデータが乏しかったり、データに二次因子、統計的にはコンファウンディング・ファクター(交絡因子)が入っていて信頼性が不確実だからです。つまり、患者のバックグラウンドが揃わない、そのバラツキが影響して「見かけ上の遺伝子の差」として現れている情報かもしれない。


にほんブログ村 海外生活ブログ 海外留学(アメリカ・カナダ)へ ブログ村

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です