午前
・授業準備
午後
・授業
・授業準備
4週連続の週末行事の最後は、明日からの実習。最近は日々はあっという間に過ぎるが、今月は長かった。
土、日、月の実習、天気は良さそうで安心。無事に終わって欲しい。
2019年5月30日木曜日
2019年5月29日水曜日
2019年5月28日火曜日
2019年5月27日月曜日
2019年5月24日金曜日
2019年5月22日水曜日
2019年5月21日火曜日
2019年5月20日月曜日
2019年5月17日金曜日
PDFに変換
午前
・授業準備
・個人ゼミ
午後 ・授業
・学会準備
明日から学会。小さな学会だけど、シンポジウムのオーガナイザーと口頭発表をするので、それになりに準備が必要なのだが。かなりバタバタして学会に行くことになった。
そして、最大の不安材料は、本日、PCが急に電源が落ちたこと。
先月ぐらいから何度か生じている現象なのだが、これまでは、コンセントでつないでいる時は問題がなかった。
しかし、とうとうコンセントにつないだ状況でも落ちるようになってしまった。
安全を期して、Keynoteで作成したスライドはPDFに変換してUSBに入れて持参することにした。keynoteではアニーメションを別々のページとしてPDF出力できる、、、ことを最近知った
授業中に落ちなかっただけ良かった。
・授業準備
・個人ゼミ
午後 ・授業
・学会準備
明日から学会。小さな学会だけど、シンポジウムのオーガナイザーと口頭発表をするので、それになりに準備が必要なのだが。かなりバタバタして学会に行くことになった。
そして、最大の不安材料は、本日、PCが急に電源が落ちたこと。
先月ぐらいから何度か生じている現象なのだが、これまでは、コンセントでつないでいる時は問題がなかった。
しかし、とうとうコンセントにつないだ状況でも落ちるようになってしまった。
安全を期して、Keynoteで作成したスライドはPDFに変換してUSBに入れて持参することにした。keynoteではアニーメションを別々のページとしてPDF出力できる、、、ことを最近知った
授業中に落ちなかっただけ良かった。
2019年5月16日木曜日
2019年5月15日水曜日
生物群集の理論: 4つのルールで読み解く生物多様性
午前
・授業準備
・個人ゼミ
午後
・学会準備
・標本整理(実習で採集したもの)
・授業準備
生物群集の理論: 4つのルールで読み解く生物多様性
Vellend (2016) The Theory of Ecological Communities の訳書である。英語版を読んだことがなかったが、この本が日本語で読めるようになったのはとても嬉しい。
とても面白い!必読の一冊。
訳者まえがきに書かれているが、原著に忠実に訳したそうで、Amazonのレビューにも日本語について指摘されている。私には読みやすかったが。
群集生態学の主要な目的は、ある場所に生息する種数を決定するメカニズムを説明することにある。
自然科学の目的は、複雑な自然現象を簡潔な法則で表すことであり、群集生態学もまた上記のメカニズムをより簡潔な法則で説明しようと試みてきた。
その結果、、、数十の理論・モデルが生み出されてきた(本書に24個が紹介されている)。
これだけ多くの理論・モデルが存在しているということは、「ある場所に生息する種数を決定するメカニズム」を説明する法則はない、と言いたいぐらいである。
しかし、筆者は、個々の現象を生じさせるプロセスは多様であるが、種数を決定するプロセスは「種分化、分散、浮動、選択」の4つで説明できると主張する。前者を低次プロセス、後者を高次プロセスと呼んでいる。
つまり、過去に提出された理論・モデル(低次プロセス)は、4つの高次プロセスの大小の違いを反映したものと捉える。例えば、競争排除則は、一方の種に負の「選択」が働き排除される、みなすことができる。
進化生態学では、自然選択(+遺伝的浮動、移入、変異)を高次プロセスとして、工業暗化や適応放散の個々の事例(低次プロセス)を研究していると考えると納得しやすい(本書では、集団遺伝学との関係が示されている)。
この理論を適用すれば、ある地域に生息する種数を推定できるというものではないが、種数を決定するプロセスを考える上で極めて有用である、、、4つの要因を考えれば良いだけなので。
また、本書は、その主目的である理論を学ぶだけでなく、過去に提出された数多くの理論・モデルを整理するのにも非常に役立つ。
さらに、8〜10章は実証的証拠が示されているが、仮説、予測、方法、結果、で書かれており、理論的に考える力を養うのにも使えそう。
良いところだらけの本あるが、この理論にもいくつか(大きな)欠点もある。例えば、ある栄養段階の群集(本では水平群集と呼ぶ)のみを対象としており、食物網のように複数の栄養段階の群集は対象としていない。
本書は生態学や進化生物学を専門とする学部3・4年生・・・となっているが、群集生態学の知識がない状態で読み始めても理解は難しいと思う。この本が理解できるかで、習熟度が測れるかな。
もくじ
1.はじめに
2.生態学者はどのように群集を研究しているのか
3.群集生態学におけるアイデアの発展の歴史
4.生態学と進化生物学における一般性の追求
5.生物群集における高次プロセス
6.生物群集動態のシミュレーション
7.実証研究の性質
8.実証的証拠:選択
9.実証的証拠:生態的浮動と分散
10.実証的証拠:種分化
11.プロセスからパターンへ,そしてパターンからプロセスへ
12.群集生態学の未来
・授業準備
・個人ゼミ
午後
・学会準備
・標本整理(実習で採集したもの)
・授業準備
生物群集の理論: 4つのルールで読み解く生物多様性
Vellend (2016) The Theory of Ecological Communities の訳書である。英語版を読んだことがなかったが、この本が日本語で読めるようになったのはとても嬉しい。
とても面白い!必読の一冊。
訳者まえがきに書かれているが、原著に忠実に訳したそうで、Amazonのレビューにも日本語について指摘されている。私には読みやすかったが。
群集生態学の主要な目的は、ある場所に生息する種数を決定するメカニズムを説明することにある。
自然科学の目的は、複雑な自然現象を簡潔な法則で表すことであり、群集生態学もまた上記のメカニズムをより簡潔な法則で説明しようと試みてきた。
その結果、、、数十の理論・モデルが生み出されてきた(本書に24個が紹介されている)。
これだけ多くの理論・モデルが存在しているということは、「ある場所に生息する種数を決定するメカニズム」を説明する法則はない、と言いたいぐらいである。
しかし、筆者は、個々の現象を生じさせるプロセスは多様であるが、種数を決定するプロセスは「種分化、分散、浮動、選択」の4つで説明できると主張する。前者を低次プロセス、後者を高次プロセスと呼んでいる。
つまり、過去に提出された理論・モデル(低次プロセス)は、4つの高次プロセスの大小の違いを反映したものと捉える。例えば、競争排除則は、一方の種に負の「選択」が働き排除される、みなすことができる。
進化生態学では、自然選択(+遺伝的浮動、移入、変異)を高次プロセスとして、工業暗化や適応放散の個々の事例(低次プロセス)を研究していると考えると納得しやすい(本書では、集団遺伝学との関係が示されている)。
この理論を適用すれば、ある地域に生息する種数を推定できるというものではないが、種数を決定するプロセスを考える上で極めて有用である、、、4つの要因を考えれば良いだけなので。
また、本書は、その主目的である理論を学ぶだけでなく、過去に提出された数多くの理論・モデルを整理するのにも非常に役立つ。
さらに、8〜10章は実証的証拠が示されているが、仮説、予測、方法、結果、で書かれており、理論的に考える力を養うのにも使えそう。
良いところだらけの本あるが、この理論にもいくつか(大きな)欠点もある。例えば、ある栄養段階の群集(本では水平群集と呼ぶ)のみを対象としており、食物網のように複数の栄養段階の群集は対象としていない。
本書は生態学や進化生物学を専門とする学部3・4年生・・・となっているが、群集生態学の知識がない状態で読み始めても理解は難しいと思う。この本が理解できるかで、習熟度が測れるかな。
もくじ
1.はじめに
2.生態学者はどのように群集を研究しているのか
3.群集生態学におけるアイデアの発展の歴史
4.生態学と進化生物学における一般性の追求
5.生物群集における高次プロセス
6.生物群集動態のシミュレーション
7.実証研究の性質
8.実証的証拠:選択
9.実証的証拠:生態的浮動と分散
10.実証的証拠:種分化
11.プロセスからパターンへ,そしてパターンからプロセスへ
12.群集生態学の未来
2019年5月14日火曜日
OCR
午前
・授業準備
・授業
午後
・統計ゼミ
・論文読み
イタリア語、ドイツ語の論文に苦しんで終わった。
webでOCRをしてくれるシステムの精度がかなり高く、google翻訳を使うのに非常に助かった。1時間15ページまでは無料で使える。
・授業準備
・授業
午後
・統計ゼミ
・論文読み
イタリア語、ドイツ語の論文に苦しんで終わった。
webでOCRをしてくれるシステムの精度がかなり高く、google翻訳を使うのに非常に助かった。1時間15ページまでは無料で使える。
2019年5月13日月曜日
2019年5月7日火曜日
2019年5月3日金曜日
Rで土地被覆データ
調査地点周辺の土地被覆データを取得して、それを説明変数、在・不在を応答変数にロジスティック解析をしたいとき、これまではQGISで土地被覆データを取得して、それを分布データにくっ付けてRでロジスティック解析という流れだった。
で、たまにしかやらないので、いつもQGISの使い方を忘れてしまう。そこで、Rで土地被覆データの取得をやってしまいたいと思った。
以下の方法でいけそう。
GISデータは、高解像度土地利用土地被覆図ホームページでダウンロードしたものを使用。ファイル名は「LC_N33E139.tif」。
分布データは色々な情報が入っていても良いが、とりあえず、緯度と経度の列がある。1列目が緯度、2列目が経度。ファイル名は「site.csv」。
library(raster) #raster(), SpatialPointsDataFrame()に必要
library(geobuffer) #geobuffer_pts()に必要
# library(mapview) #mapView()に必要
tochi <- raster("LC_N33E139.tif")
dis<-read.csv("site.csv",header=T)
dis_spdf<-SpatialPointsDataFrame(dis[,2:1], proj4string=tochi@crs, dis) #csvにCRSを組み込む;dis[,2:1]に東経・北緯データがある
xy<-data.frame(lon=dis_spdf$e, lat=dis_spdf$n)
buff_25m <- geobuffer_pts(xy, dist_m = 25, output = "sf") #半径25mのバッファ
# mapView(as(buff_25m, "Spatial"), alpha.regions = 0.7) #web地図で閲覧できる
buff_25_data <- extract(tochi, buff_25m, weight=TRUE, df=TRUE) #buff_25mのtochiラスタの頻度
data_25<-data.frame(tapply(buff_25_data$weight, list(buff_25_data$ID, buff_25_data$LC_N33E139), sum))
data_25[is.na(data_25)]<-0 #NAを0に変換
head(data_25)
「X1,X2,X3,,,」が凡例の「#1,#2,#3,,,」に対応するみたい。
上記の方法は、一度、バッファをgeobuffer_pts()でバッファを作成してから、extract()を実施している。
extract()にbuffer=**で指定する方法もあるみたいだけど、上手くいかなかった。
mapView()は初めて知ったけど、web地図に投影できとても便利。plot()で地図を書いて、その上に描画すると動きが遅くなるけど、mapView()はサクサク動いた。
これができるまでに数日を費やした。再来週の学会で使うつもりだったけど、そもそも解析結果がイマイチなことに本日、気づいた。
諦めて系統解析だけにするか、、、こちらもイマイチ。
RでGISに少しは慣れ、キングダム全巻読破したGWになった。あと、嬉しい連絡もあった。
で、たまにしかやらないので、いつもQGISの使い方を忘れてしまう。そこで、Rで土地被覆データの取得をやってしまいたいと思った。
以下の方法でいけそう。
GISデータは、高解像度土地利用土地被覆図ホームページでダウンロードしたものを使用。ファイル名は「LC_N33E139.tif」。
分布データは色々な情報が入っていても良いが、とりあえず、緯度と経度の列がある。1列目が緯度、2列目が経度。ファイル名は「site.csv」。
library(raster) #raster(), SpatialPointsDataFrame()に必要
library(geobuffer) #geobuffer_pts()に必要
# library(mapview) #mapView()に必要
tochi <- raster("LC_N33E139.tif")
dis<-read.csv("site.csv",header=T)
dis_spdf<-SpatialPointsDataFrame(dis[,2:1], proj4string=tochi@crs, dis) #csvにCRSを組み込む;dis[,2:1]に東経・北緯データがある
xy<-data.frame(lon=dis_spdf$e, lat=dis_spdf$n)
buff_25m <- geobuffer_pts(xy, dist_m = 25, output = "sf") #半径25mのバッファ
# mapView(as(buff_25m, "Spatial"), alpha.regions = 0.7) #web地図で閲覧できる
buff_25_data <- extract(tochi, buff_25m, weight=TRUE, df=TRUE) #buff_25mのtochiラスタの頻度
data_25<-data.frame(tapply(buff_25_data$weight, list(buff_25_data$ID, buff_25_data$LC_N33E139), sum))
data_25[is.na(data_25)]<-0 #NAを0に変換
head(data_25)
「X1,X2,X3,,,」が凡例の「#1,#2,#3,,,」に対応するみたい。
上記の方法は、一度、バッファをgeobuffer_pts()でバッファを作成してから、extract()を実施している。
extract()にbuffer=**で指定する方法もあるみたいだけど、上手くいかなかった。
mapView()は初めて知ったけど、web地図に投影できとても便利。plot()で地図を書いて、その上に描画すると動きが遅くなるけど、mapView()はサクサク動いた。
これができるまでに数日を費やした。再来週の学会で使うつもりだったけど、そもそも解析結果がイマイチなことに本日、気づいた。
諦めて系統解析だけにするか、、、こちらもイマイチ。
RでGISに少しは慣れ、キングダム全巻読破したGWになった。あと、嬉しい連絡もあった。
登録:
投稿 (Atom)