fantom_zona’s diary

Impact the world!!!

parkin translocationによるhigh content RNAi screening

これ

parkinのtranslocationを利用するのは賢いと思った。
これ以外だと変性疾患だとtau, Aβ, αSynあたりかな。
high content screeningってやつ、うまい指標を作るのが面倒くさそう。

今やるならCRISPRなのかな?ここら辺の優劣はなぞ。
RNAiは結構細胞内が変化するって話を聞いたことがあるけど本当なんだろうか?
gRNAのライブラリってどこかでもう売ってるのかな?

UCSDのRoy labの続き

先日のRoy labから出た論文が非常に参考になると分かったので、しばらくはここの研究室の論文を読むことにする。

とりあえずこれアルツハイマー病(AD)はAPPがγ, β secretaseによって切断されることによって生成されたAβが凝集することが特徴的。最も多い神経変性疾患

APPがendocytosisされて、BACE-1のいるRecycling endosomeに取り込まれて処理を受けることを報告した論文。ADの人の脳で、実際にAPPとBACE-1の分画が増えていることを最後に示している。activity dependentらしく、デフォルトネットワークの活動度がADと関与しているのではないかとの報告もあるようで、その具体的なメカニズムではないか?と言っている。ほとんどイメージングしかしてない。

なお、ニューロンは全て初代培養で、lentiか何かでADのモデルにしたものは使ってない。実際にADのGWASか何かで出てきたSNPはこの経路に関するものなのだろうか?sporadicなADの関与とも関係ありそうだ。

細胞質のたんぱく質はどのようにして軸索輸送されるか?

これはすごい。殆ど画像解析とあとはシンプルな実験だけで、軸索輸送の新しい形を示している。確かに言われてみればcytosolのタンパクは軸索を移動しているのかは知らない。localに作られているのかな?くらいにしか思わなかった。画像解析を使った研究として参考にする。

このUCSDのRoy lab、軸索輸送以外にもAD/PDもやっているらしい。知らなかった。

ちなみにこの論文のfirstのDSは、あのFZのとこでPhD studentをしているらしい。

PINK1とPARKINの論文

随分と前に読んだ論文だが、最近ではここに書かれてるmitophagy以外にもmitochondriaのquality controlがもっと色々あると分かりつつあるらしい。

変性疾患というと、病理でナントカ小体が蓄積するっていうのがイメージされるが、実際の病理像は原因遺伝子と関係なく一緒なのだろうか?

Epigenetic Landscapes Explain Partially Reprogrammed Cells and Identify Key Reprogramming Genes

軽い紹介

リプログラミングと連想記憶って似てるんじゃないということから、スピングラスの物理を使ってWaddington's landscapeを作ってみたという論文。

アレイのデータから発現量をバイナリ化して扱ってる。バイナリ化の根拠として、ヒストン修飾を調べていて、これが割と2値っぽいと言っている。

63個の細胞を1337個のTFで記憶してるとしてlandscapeの作成をした。

common myeloid progenitorからの分化の再現、ESCの安定性を再現してたりする。

ただし山中因子によるiPSCの再現はできなかったらしい。

また、リプログラミングとかの過程でよく分からない細胞群が出てきてしまうことが知られているんだが、それはスピングラスの理論を使うとかなりnaturalだよって言っている。類似度も計算できてる。

他には、その状態に寄与しているTFを選び出すことができるらしく、それらを使えばリプログラミングとかdirect conversionに使えるんじゃない?って言っている。

 

感想

バイナリ化っていうかなり大胆な過程を踏んでいても、ある程度既知の知識が再現できてしまうのは面白い。ただ山中因子が説明できなかったのは痛い。

リプログラミングの過程でできてしまうよく分からない細胞ってとこに関しては、論文内で言うところの"experimentalist"もある程度わかっていたことな気がする。アレイとってヒートマップで、ある程度わかる気がするから、この理論としてわかったことではないような気がする。自然に出てくるという点ではまあそうかって感じではあるが。

やはりこういう系では細胞状況への寄与率が高いTFが予測できたら、それを使って実際にdirect conversionとかの手法を作って欲しい感じはする。(firstは物理屋さんだからそれは多分ないけど。)

あと、モデルに出てくる定数が気になる。これは符号が大事であるということは分かるんだが、符号さえあっていればモデルとしては等価なんだろうか。スピングラスの物理がそこまで詳しくないから分からない。

あと、寄与率を計算する式が最小二乗法で出てくる正規方程式と(たぶん)同じになるんだけど、機械学習と連想記憶の関連はちょっと調べてみたい。

リプログラミングと連想記憶のアナロジーっていうのは新鮮だった。しかも話は割とシンプルだし、TFのcascadeとかの知識が全くなしにアレイデータさえあればここまで作れてしまうのは面白い。 Waddington's landscapeっていう誰もが知ってるテーマに挑んでいるのも好感が持てる。データが公開されて天才がすごいモデル作る!みたいな話っぽいくて好き。