読者です 読者をやめる 読者になる 読者になる

土地に残る生きた痕跡 Life log on the land

最近は古地図が気になっています。

先日もコチラの本を片手に東京大学のまわりをブラブラ散策してきました。

 

本文中では、江戸時代の街並みや暮らしぶりが

現存する坂にまつわるエピソードと共に紹介されており、

当時の情景を目に浮かべながら歩くのはとても楽しかったです。

 

一つ気づいたのは、

人間の生きた痕跡(ログ)は何かしらの形で土地に残るなぁ、ということです。

 

土地がそこにあるかぎり、昔の人がその坂を歩き、住処としてその地名を称し、

区割りに従って家を建て、Aという社寺を奉っていた、という事実は残ります。

 

それは研究者がフィールドワークを重ねてようやく発見できる小さな痕跡かもしれませんが、

歴史に名を残す偉業を成さずとも、自分の生きた痕跡は何かしらの形で残るんだな、とわかった瞬間、少しほっとしたのを覚えています。

 

ネットの世界ならこれがさらに顕著ですね。

今後は、逆に何でもログが残る時代になり、故人のことも「調べればすぐわかる」という時代になると思います。

なるたけ良いログを残し、手にとった人に良い影響を与えたいな、と思います。

 

読書 茶の本

高円寺のR座読書館いってまいりました。

こちら、おしゃべり厳禁の硬派なカフェかと思いきや、そんなことはなく。

温和なマスターが出迎えてくれる、おしゃれで居心地のよい空間でした。

 

さて、ここでチョイスしたのが表題の「茶の本」。

岡倉天心が茶道の精神を海外に説明するために、もとは天心が英語で書いた本です。

 

さて、気になった部分を箇条書き。

・茶の魅力は全てが調和的である点。無駄なものは一切なく、所作において反復を許さない。

・禅をする者は、説明的な仏教的色彩、絵画は好まない。シンプルな墨絵を好むのは当然の成り行き。

・道には絶対的な世界はない。道は時代に合わせて変化する。個人の内面に神を見出し、宇宙を創造する。

 

久しぶりに集中できて素晴らしい時間だった。生活が忙しくなり、自分の中で喫茶のあり方や役割も変化している。読書専門カフェで中国茶をのみつつ本を読む、なんてのも、一つの茶道の進化系なのかもしれない。

 

 

 

 

 

 

 

 

 

 

 

 

大田区探訪

本日の記録。

1.川瀬巴水展いってきました。

大田区ホームページ:大田区立郷土博物館特別展「川瀬巴水―生誕130年記念―」のご案内

水面に映る月や富士、強いコントラスト、鮮やかなピンクと橙色が素敵。

日本庭園に池がセットなのは水面に景色が映えるから。金閣寺しかり、六義園しかり。インドのタージマハルも同様。考えることは同じ。

 

2.散歩

西馬込から大田区立大田図書まで歩く。坂道のある街並みが素敵ですね。

下校中の中学・高校生たちとすれ違う。中学・高校時代を東京で過ごしたら、今の自分と何かが変っただろうか?これ、いつも考える。今日の結論は「もう少し大人びた子供になっていたかもしれない」。

 

3.大田区中央図書館

毎度の図書館めぐり。ここは書庫に誰でも入室できるらしい。

澁澤龍彦の本、深瀬昌久さんの「洋子」、幸田文沢木耕太郎などを手に取る。

あと、古い朝日新聞の記事を眺める。若い女性の流行○○、女子学生の受験などについての記事があり、現在の彼女らの境遇を慮る。

 

澁澤龍彦がすごくカッコイイと思った。

Twitterマイニング計画

やりたいこと

  1. TwitterタイムラインをMongoDBに保存。
  2. Rを使ったテキストマイニングMeCabでKmeans

まずはツイッターAPI取得とターミナル上での表示。下記のブログを参照しました。

kk6のメモ帳*

 

 次、MongoDBとの連携。以下のブログを参照しました。

 

エラーが返る。

ImportError: No module named appscript

そこでappscript モジュールをダウンロードした後インストール。

これもエラーが返る。

appscript-1.0.1$ sudo python setup.py install

running install

Checking .pth file support in /usr/local/lib/python2.7/dist-packages/

/usr/bin/python -E -c pass

TEST PASSED: /usr/local/lib/python2.7/dist-packages/ appears to support .pth files

running bdist_egg

running egg_info

writing appscript_2x/lib/appscript.egg-info/PKG-INFO

writing top-level names to appscript_2x/lib/appscript.egg-info/top_level.txt

writing dependency_links to appscript_2x/lib/appscript.egg-info/dependency_links.txt

reading manifest file 'appscript_2x/lib/appscript.egg-info/SOURCES.txt'

reading manifest template 'MANIFEST.in'

writing manifest file 'appscript_2x/lib/appscript.egg-info/SOURCES.txt'

installing library code to build/bdist.linux-i686/egg

running install_lib

running build_py

running build_ext

building 'aem.ae' extension

gcc -pthread -fno-strict-aliasing -DNDEBUG -g -fwrapv -O2 -Wall -Wstrict-prototypes -fPIC -I/usr/include/python2.7 -c appscript_2x/ext/ae.c -o build/temp.linux-i686-2.7/appscript_2x/ext/ae.o -DMAC_OS_X_VERSION_MIN_REQUIRED=MAC_OS_X_VERSION_10_4

appscript_2x/ext/ae.c:11:20: 致命的エラー: Python.h: そのようなファイルやディレクトリはありません

コンパイルを停止しました。

error: command 'gcc' failed with exit status 1

しばらく調べたがよく分からない。appscriptの更新が停止したことと関係ある?

はだしのゲン回顧録

はだしのゲン」作者の中沢啓治さんの自伝を読みました。

「はだゲン」は政治的主張の濃い漫画なので賛否両論ありますが、文学として見れば、個人的にかなり好きな作品です。

本編では戦争・アメリカ・天皇許すまじと、徹底した責任糾弾が繰り広げられ、休載を挟みつつ10年以上に渡る長期連載となりました。

怨恨のもつエネルギーは凄まじいな!と感心していたのですが、どうやら、その背後には悲惨な原爆体験に加えて、きびしい貧困と差別の経験があったようです。

焼け野原となった広島には仕事もなく、家庭は困窮。残った家財道具を食料に替えるため、農家を訪れては頭を下げて回る日々。足元をみられて、ときには罵倒されることもあり、とても悔しい思いをしたそうです。

 

戦争が子供を大人にするとも書かれていますが、そのとおりだと思います。

 

正規表現

今日使ったものをメモ。

Twitterの単語あたりの使用回数を抽出した所、以下のようになった。

洋装1
洒落1
洗浄2
洗濯5
津波3
活かし1
活かそ1
活力1

この最後の数字をもとにソートしたい。以下の置換を使った。

  1. [0-9]+$ → >\0 
  2. ^ → <
  3. <.+> → 

これで数字以外の<>で囲まれた部分を消去。結果を元のCSVデータの隣列にコピペする。あとはソート機能を使えばOK。

 

私の全ツイート1,882件中における結果のうち、主だった物だけ紹介。

  • インド…122/1882
  • 思う...64/1882
  • 日本…55/1882
  • W...30/1882
  • 中国…27/1882
  • 女子…22/1882
  • 最高…15/1882
  • 寒い…2/1882

旅行にいって以来ハマってる、インドがぶっちぎりで多いですねw。

 

 

Ubuntu12.04LTSでRを使う(2)

WindowsMeCabをインストール。

しかし、既存のtxtファイルを読み込む方法わからず。

コマンドラインで新規txtファイルを作成後、コンパイル

C:\Users > notepad sample.txt

C:\Users > mecab sample.txt

次に形態素分解してキーワード抽出してカウント。

ネットで適当なJAVAのプログラムを拾う。

以下のブログを参照させて頂きました。

JavaからMeCab(Windows)を手軽に利用する方法

 

単語あたりの使用回数を数えるプログラムは知恵袋を参考にしました。

Java Mapを使い、txtファイルから単語の抽出 その頻度の数をカウントしたいのです... - Yahoo!知恵袋

 

とりあえず以上です。

JAVAは忘れてる部分が多く、焦る。可能なら毎日さわりたい。