hirax.net::inside out

最新記事(inside out)へ  |   年と月を指定して記事を読む(クリック!)

2017年11月 を読む << 2017年12月 を読む >> 2018年1月 を読む

2017-12-13[n年前へ]

「月が欠ける向きは上下?左右?」…月の形で赤道や極への近さを意識する。  share on Tumblr 

 「スーパームーンより感動するタイの月を見逃すな」という記事を面白く読みました。それは、記事中のこんな一節に惹かれたからです。

 日本で見る半月は、満月から左(右)半分を切り取ったイメージなんですが、タイの半月は、「満月の上の半分を切り取った形」をしています。

 月が太陽に照らされて光る方向も、太陽から差し込む光が影になり「切り取られる」方向も、それはほとんど「月が空を進む方向」と一致しています。…正確には、太陽と月の軌道が約5度傾いているために、月が欠ける方向と進む方向にはズレがありますが、大雑把には同じです。

 すると、月が「欠ける方向」が、上下と左右どちらになるか…という問題は、空を月が進む方向が地平線となす角がどれだけか?…つまり、季節を無視すれば、月を眺める今いる場所が「赤道に近いか、(北極や南極といった)極に近いか?」という単純な問題になります。

 「スーパームーンより感動するタイの月を見逃すな」という記事を面白く読みました。それは、記事中のこんな一節に惹かれたからです。

 日本で見る半月は、満月から左(右)半分を切り取ったイメージなんですが、タイの半月は、「満月の上の半分を切り取った形」をしています。

 月が太陽に照らされて光る方向も、太陽から差し込む光が影になり「切り取られる」方向も、それはほとんど「月が空を進む方向」と一致しています。…正確には、太陽と月の軌道が約5度傾いているために、月が欠ける方向と進む方向にはズレがありますが、大雑把には同じです。

 すると、月が「欠ける方向」が、上下と左右どちらになるか…という問題は、空を月が進む方向が地平線となす角がどれだけか?…つまり、季節を無視すれば、月を眺める今いる場所が「赤道に近いか、(北極や南極といった)極に近いか?」という単純な問題になります。最初の記事で言うと、タイは日本より赤道に近いので、月は地平線から鉛直に近い方向に進み、月が欠ける方向も鉛直に近い(左右より上下に近い)…というわけです。

 少し面白いのは、日本の緯度は北緯約35度…つまり、赤道と北極のどちらに近いか…といえば、むしろ赤道に近いということです。だから、昔から「上弦の月、下弦の月」というように、月が光ったり・欠けたりする方向を「上下」とも表現されてきました。

 けれど、今は、月が欠ける方向は「上下」ではなくてどちらかというと「左右」という認識も、自分の感覚を振り返ってみても、普通である気もします。…それがどうしてなのか、考えてみると、何だかとても面白い気がします。

2017-12-05[n年前へ]

Microsoft Excelで "=-1^2" が "-1"ではなくて"1"になる「理由」  share on Tumblr 

 Microsoft Excelで "=-1^2" が "-1"ではなくて"1"になるのが「なぜだろう?」というtweetを興味深く読み、そこから辿り着いた20年前のメーリングリスト記事が面白かったので、簡単なメモ書きをしてみます。メモ書きなので、面白い記事へのポインタと(その記事に対する)わずかな感想を書いただけの日記記事です。

 まず、この計算順にまつわる問題を考える時には、" Warning: Excel Performs Negation Before Exponentiation"のタイトルにもなっているように、Excelという一種のプログラミング環境上での、"negation"と"subtraction"という異なる2演算子の計算順序の違いを区別する必要があります。つまり、

=-A1^2
は"=(-A1)^2"と計算されるけれど、
=1-A1^2
は"=1-(A1^2)"と計算されるというように、前者の"negation"と後者の"subtraction"が異なる演算子として区別され・違う演算順序が適用されるという話です。

 次に、20世紀最後の年、つまり西暦2000年1月13日の20:18:46にDoctor Petersonがメールで書いている文面がとても参考になります。それは、"negation"のような単項演算子は”exponent”のような二項演算子に優先して演算されるものだったから、それをただ踏襲すると、こんな計算順序になるよね、というものです。「Lotus 1-2-3との互換性を重視した」わけではないけれど、プログラミング言語の過去経緯を踏まえて考える話だよね、というものです。

 そして何よりも、西暦2005年の12月16日にErikが書いているように、Windowsのメモ帳で "msgbox -2^2"と書いてから、そのファイルをtest.vbsという名前で保存して、もしもダブルクリックしたならば、(マイナス4ではなくて)"4"という答えが書かれたメッセージボックスを私たちは目にするよね。この例でもわかるように、エクセルの「ダメな話」として眺めるのではなくて、コンピューター科学の「興味深い話」として眺めるべき話じゃないか?というコメントが、とても参考になると思います。

So I think this isn't bad math on Excel's part, but good computer science.

2017-12-04[n年前へ]

史上最古?の円盤レコードを、画像処理で聴いてみよう!?  share on Tumblr 

 安顕微鏡レンズを付けたスマホでレコードを撮影して音声化してみよう!?で、顕微鏡キットを取り付けたiPhone 6sをレコードの上を滑らせて高速撮影からのデジタル化に挑戦してみました。

 こうした過去技術も数多くあったよね?と検索して見つけたのが、”media preservation/Extracting Audio from Pictures”です。これは、インディアナ大学ブルーミントン校のハーマン B ウェルス図書館にある棚、その奥にある本の395ページに印刷されていた印刷画像を見つけ、それが、最古に近い レコード「グラモフォン(1887年にエミール・ベルリナーが発明した円盤レコード)」であることを発見するとともに、その音声を画像処理的に復元した話です。

 この話は、素晴らしく面白い話です。何しろ、1877年にトーマス・エジソンが円筒形のレコードを発明し、その後の1887年にエミール・ベルリナーがに円盤レコードのグラモフォンを作り…といった、科学技術の歴史とともに、その復元を自分で(自分のコンピュータで、自分の手を動かして)確かめる・実感することができる、つまりは「楽しさ」が詰まっているからです

2017-12-03[n年前へ]

安顕微鏡レンズを付けたスマホでレコードを撮影して音声化してみよう!?  share on Tumblr 

 最近のデジカメでレコードを撮影すると「レコード溝がクッキリ見える」という話を読んだ。ということは、”スマホでレコードを撮影すると音声再生するアプリができる時代が来そう”と思って呟くと、「思ったことは一体いつやるの!?今でしょ!今!」と諭された。…確かに、思ったことは、その時にやらないといつまで経っても何もできないような気もしてきます。

 そこで、ディスクユニオン横浜関内店に行くと、ちょうど「本日だけ!650円以下の全商品が100円!セール」をやっていたので、薬師丸ひろ子「セーラー服と機関銃」を買い、300円くらいの安い顕微鏡キットを付けたiPhone 6sでレコード溝を撮影してみました

 撮影手順は、静止画像で何枚も撮るのは面倒だったので、顕微鏡キットを取り付けたiPhone 6sを高速度撮影モードにして、レコードの上を滑らせながらの撮影です。そして、高速撮影動画を位置合わせ合成し、溝の太さをデジタル化することで、左右チャンネルを合成した音声ファイルを作成してみました。

 撮影した動画例は、下のようになります。実際には、レコード針が進む方向にとても長い画像ですが、左下の画像例は、それを圧縮したり・一部を拡大してみたものです。

 デジタル化したレコード溝の太さを、グラフにしてみたものが、下の画像です。また、音声ファイル(WAV)化してみたものもここに置いておきます
 今回処理してみたのは、とても短い時間分なので、音楽として聞こえるようなものではありません。けれど、普通のスマホ+300円くらいで、アナログレコードの音声デジタル化撮影が(普通に?)できるようになっているのは、何だか少し面白いものです。

安顕微鏡レンズを付けたスマホでレコードを撮影して音声化してみる安顕微鏡レンズを付けたスマホでレコードを撮影して音声化してみる安顕微鏡レンズを付けたスマホでレコードを撮影して音声化してみる安顕微鏡レンズを付けたスマホでレコードを撮影して音声化してみる安顕微鏡レンズを付けたスマホでレコードを撮影して音声化してみる安顕微鏡レンズを付けたスマホでレコードを撮影して音声化してみる安顕微鏡レンズを付けたスマホでレコードを撮影して音声化してみる






2017-11-23[n年前へ]

スマホで「(光の波長ごとのイメージを取得する)分光撮影カメラ」を作ってみよう!  share on Tumblr 

 一番身近にある各種センサを備えたコンピュータ、いわゆるひとつの「スマホ」を使って簡単に特殊撮影をしたり・色々遊んぶツールを作っています。そのひとつとして、スマホを使った「(光の波長ごとのイメージを取得する)分光撮影カメラ」があると一体どんなことができるかを確かめてみたくなり…試しにスマホ分光カメラを作って蛍光灯を撮影してみました。撮影し蛍光灯は、右上に貼り付けたいたって普通の蛍光灯です。

 スマホ分光カメラで撮影した分光画像を、カメラから観た時の画像XY座標と光の波長方向軸(長波長←→短波長)で眺めてみた動画が下に貼り付けた動画です。眺める景色を、その光の波長ごとに分解したイメージとして意識することは少ないので、こうして眺めてみると少し面白い気がします。

スマホで「(光の波長ごとのイメージを取得する)分光撮影カメラ」を作ってみよう!スマホで「(光の波長ごとのイメージを取得する)分光撮影カメラ」を作ってみよう!






2017-11-19[n年前へ]

お札を顕微鏡で眺めて「赤外透過インクと赤外吸収インクの位置合わせ精度」を眺めて驚くの巻  share on Tumblr 

 偽造防止のために、紙幣は「赤外透過インクと赤外吸収インク」が場所毎に切り替えられた印刷になっています。可視光しか見えない肉眼で眺めてみても「そのインク種の切り替わり部分」は識別できませんが、赤外線カメラで紙幣を眺めると、全く違うお札の姿が見えてきます。

 肉眼では見えなくても、さすがに顕微鏡で「可視光下」と「赤外光下」で眺めれば、そのインク切り替わり箇所は識別できるに違いない点と思い、千円札の「可視光では普通の画像に見える、けれど赤外光では透明に見える部分」と「可視光でも赤外光でも普通の画像に見える部分」について、その境界を拡大撮影してみました。それが下に貼り付けた画像です。(可視光画像→可視光+赤外光画像→赤外光画像、の繰り返し)

 赤外光照明と可視光照明下で紙幣を撮影した顕微鏡画像を眺めてみても、そのインク切り替わり部分を全く視認することができないことに驚かされました。印刷の異なるインクを位置合わせする精度や、重ね合わせを気付かせない処理制度は、想像以上でした。

2017-11-18[n年前へ]

Software Design 12月号「物理と数学、そしてプログラミング」  share on Tumblr 

 今週末に発売された Software Design 12月号 に、「第1特集 ITエンジニアと数学」中の4時限目(「物理と数学、そしてプログラミング」)として、駄文を書かせて頂きました。 記事書きのために書いたサンプル Jupyter ノートブックは、ここに置いておきます

 世界を方程式で表して、何が起きるかを計算する物理(科学)計算プログラム…言葉だけ眺めると、一見とても難しく思えます。けれど、実は「わりと簡単なのにとても楽しい」ものです。…それが少しでも伝わって、あなたの口癖が(ガリレオ湯川先生みたいな)こんなフレーズになれば幸いです。
「なるほど、実に面白い」

Software Design 12月号「物理と数学、そしてプログラミング」Software Design 12月号「物理と数学、そしてプログラミング」






2017-11-15[n年前へ]

毎年の月齢12番目の月、その満月の夜を過ごす場所。  share on Tumblr 

Chiangmai Loy Kraton  ある頃から、毎年の月齢12番目の月には、その満月の夜、タイのチェンマイに行き続けている。人の顔も名前も全く覚えることができないくらい記憶力が悪く、かといってWEB日記(死語)にマメに記録を残すわけでもない(あえて書かないことも、もしかしたら多かったのかもしれない)ので、WEB日記を読み返してみても、もう全く思い出すことができないのだけれど、どうやら十数年前から、11月の満月の夜には、その辺りにいるようだ。

 毎年の月齢12番目の月、その満月の夜をいつもそこで過ごし始めた理由は、とても単純だ。…端的に書けば、その景色がとても心地良く、「その景色を見た後なら、いつかの瞬間に死んでも、何だか後悔しない気」がするからだ。逆に言えば、そこに行かない一年があった時、その一年の間に死んだら「心残りで地縛霊になってしまいそう」にも感じたりする。

 その日眺めた「今日見た景色」、その瞬間には書き残すことが面倒だとしても、もしかしたら後で記憶を振り返るには「少し面白いもの」だったりすることもあるに違いない。あるいは、書き残すデメリットを、書き残したことでの何かのメリットが(後になってみれば)上回ることもあるかもしれない。

 というわけで、駄文を適当に気楽に書いてみることにしよう。WEB1.0な人たちが、今も不思議に(まるで地縛霊のように)あがき続けているように、成長しないままだったとしても、記憶を補うためにWEBノートを書いてみることにしよう。

2017-11-14[n年前へ]

ライフルで照準前に空を見る動作…それが何で狙いを正確にするのか?  share on Tumblr 

 今の韓国大統領、文在寅がライフルを扱う様子について、「文在寅が、照準する前に一瞬空を見る動作をしてるけど…空を見ることで瞳孔を小さくし、照準しやすくする効果があるらしい「軍人」としての文在寅・韓国大統領~なぜ彼は銃を構えた時、一瞬空を見上げるのか?)」というtweetを読んだ。けれど、その言葉だけでは今ひとつ納得できなかったので、何がわからなかった(何に落ちこぼれた)のかを書いてみる。

 高性能なライフルに備えられるような光学照準器の場合、レンズ群を通して、ライフルで狙うターゲットの光学像を照準線面で一旦結像させた後、照準線とターゲットが同じ焦点面に一致するようなさらなる光学系が組まれている。つまり、それは、ある一定距離の場所にあるものを眺める「一般的な視力検査」のような問題に思われる。

 人間が備える目の構造は、比較的単純な光学系であるが、そのレンズ絞りに相当する瞳孔は、瞳孔から目に入る光量に応じて約2mm〜8mmに調整される。…といっても、眼の光量調整は、絞りと視覚系の感度とがそれぞれ調整される機構となっているので、感度に関して、絞りが一義的に支配をしているわけではない。

 瞳孔の径は、視覚系の感度が入ることにより、通常状態では3mm弱程度である。そして、瞳孔径がそれより小さいと、回折により(たとえ焦点を正確に合わせても)光学性能は劣化するし、瞳孔系がそれより大きくても、その場合には光学収差で、やはり光学性能は低下してしまう。光学系を絞りすぎてもダメだし、大きくてもダメ…という単レンズ系の「当たり前の制約」である。

 レンズ枚数が少ない人間の眼はまだまだ光学的に改善の余地があるとも言えるかもしれないし、「人間の眼は、通常状態で最高の性能を発揮するように進化してきた」と言うこともできるかもしれない。それは、眼の光学系(瞳孔径)が最高の性能を発揮するように、撮像素子側の感度調整が自動でされる…ということである。…ちなみに、1秒とかいった短い時間で調整されるのは、瞳孔径であり、視覚系の感度特性はそれより長い時間で動く制御システムとなっている。

 人間の眼が、生物進化の過程で、瞳孔径にして約3mm弱で最高の合焦・光学性能を発揮するとなると、それはつまり「対象物を普通に眺めている状態が最高の状態」だということになる。ターゲットをライフル照準に合わせる時、その光学解像精度を最高にしたければ、「対象物をただ普通に眺める」ということが最高の結果をもたらすのではないか…と考えられる。決して、対象物とは異なる輝度の「空」を眺めるべきではないように思われる。

 もちろん、スナイパーは眼が悪く、焦点を合わせる性能に不自由していて(目が悪くて)、瞳孔径を小さく・あたかもピンホールカメラのようにしないといけない状況だというのであれば、ライフルで照準前に空を見る動作はプラスの効果をもたらすように思われる。…けれど、今回の話の場合には、そんなピント外れのスナイパーを題材にした話ではないに違いない。『眼が悪ければ、眼を細めればいいよ!」という話では、全くもって凄い話ではない。

 ライフルで照準前に空を見る動作…それはどういう過程で狙いを正確にするのだろうか?

2017-10-27[n年前へ]

スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?  share on Tumblr 

 機械学習を使った「単一露光画像からのHDR(ハイダイナミックレンジ)画像生成」の Paper PDF が出ていて、プロジェクトページ には Tensorflow / Pythonによるコードが公開されていた。

 そこで、まずは iPhone 6s で撮影した1ショット RAW(DNG)画像(右)から、詳細がわかるように…というかGPUメモリが許す画像サイズに切り抜いた上で、HDR画像を生成してみました。それが下の結果です。下左側画像が(1ショット単一露光画像)入力画像で、下右側が機械学習が出力したHDR画像です。相対的に明るすぎて白飛びしている箇所が、それっぽくHDR生成されていることがわかります。

 最近のスマホなら、高速連写機能を使ったHDR撮影が普通にできる時代です。とはいえ、動画撮影をするときは、そんなHDR処理が働かないもの。…ということは、撮影した「動画」が白飛びしていたりしたら、こんな機械学習による単一露光条件動画からのHDR動画を作り出してみるのも良いかもしれません。

 ところで、下に貼り付けた画像は、全天周カメラ Ricoh Theta で撮影した単一露光条件の低解像度画像から生成してみたHDR画像です。…こうした全天周画像に対して機械学習で使われるCNN(Convolutional Neural Network)処理を掛けようとすると、XY座標系の2次元画像ではなく、曲率を持つ球表面に適用可能なCNN画像処理を掛けたくなります。…そんな全天周画像処理を探す旅に出たくなります。

スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?






2017-10-07[n年前へ]

スマホ撮影画像の「距離マップ」を使って「レンブラント」写真を撮ってみる  share on Tumblr 

 AppleのiPhone新機能の紹介記事、”コスプレをiPhone 8 Plusの新機能「ポートレートライティング」で撮影するとこうなる”がとても面白いです。内容は、(おそらく)スマホのステレオカメラなどを使って得られる「スマホの撮影画像に写る各点までの距離マップ」を使った画像処理により、さまざまな照明効果を使った写真撮影や動画撮影ができるというものです。紹介記事中では、 ”iPhone 8 Plus / Xの新機能「”ということだったので、普通のスマホで同じことをやったらどうなるか?を簡単に確かめてみることにしました。

 やったことはとても簡単です。まず、普通のスマホ(iPhone 6s )で撮影位置を少し動かしながら画像を撮り、その画像から3次元・距離マップ情報を作り出します。そして、その距離情報を使って、撮影画像の色画像に適切な階調変換や照明処理を掛けてやるわけです。

 距離マップ情報が無い場合、つまり、色画像情報だけだと、(もしも単純に処理をしたとすると)「同じ色・輝度の場所は同じような画像処理を掛ける」ことになってしまいます。すると、階調変換処理により被写体だけを浮かび上がらせようとしても、背景にも同じ階調変換処理が掛かってしまい、できばえがイマイチということになってしまいます。けれど、距離マップ情報があれば、被写体だけを上手く浮かび上がらせた処理も、割と楽にできるというわけです。

 というわけで、撮影した生画像(左下画像)から、他撮影画像(右画像)との視差で生成した距離マップを処理データとして使いつつ作成した「レンブラントライティング」を掛けてみたのが右下画像です。「同じ明るさの場所に対して同じような階調変換」が掛けられているのではないことがわかるかと思います。そして、被写体(マネキン頭部ですが)だけを浮かび上がらせることもわかるのではないでしょうか。

 眺めていると、「レンブラントライティング」だけでなく、色んなリライティングの「モード」を、スマホのカメラで試したくなります。

スマホ撮影画像の「距離マップ」を使って「レンブラント」写真を撮ってみるスマホ撮影画像の「距離マップ」を使って「レンブラント」写真を撮ってみるスマホ撮影画像の「距離マップ」を使って「レンブラント」写真を撮ってみるスマホ撮影画像の「距離マップ」を使って「レンブラント」写真を撮ってみる






2017-09-26[n年前へ]

「ペットボトル中の水」回転させながら出すのと、底に大穴を開けて出すのとどちらが早いか?  share on Tumblr 

 「ペットボトル中の水」を早く出そうと思ったら、「回転させて渦を作れば、一瞬で水が出る」という話になる。その理由は、渦の中心に生まれた空気トンネルのおかげで、「ペットボトル中の気圧が下がらず、ペットボトルから出ようとする水の流れを妨げないから」というわけである。

 それなら、「ペットボトル中から、一番早く水を出そうと思ったら、底を切ったペットボトルを逆さにすれば良いんですよね〜」と言うと、「いや、渦を作った方が早く出るんじゃないの?感覚的に。」という、物理無視的な感覚意見が多く出た。

 というわけで、2リットル入りのペットボトル中から、色んなやり方で水を出して結果が下の動画です。ちなみに、一番右のものが、底を切ったペットボトルを逆さにしてみたものです。…渦を作って水を出す(右から2番目の)ものはテクニックはイマイチですが、それにしても、「渦を作った方が早く出るんじゃないの?感覚的に」というー感覚ーが意外なほど多数派だったりするのは、少し面白いかもしれません。

2017-09-23[n年前へ]

続「妄撮カメラソフト」WEBアプリ版(胸限定)を作ってみた。  share on Tumblr 

 春が終わる頃、京都の街を散歩中に学生時代を思い出し、「男子の夢な(衣服の下を透視する)妄撮カメラ」を作りました。そして、梅雨が終わり夏本番に入る頃、そのコードをもとにして、WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」を動かしてみました。…ただ、筋肉自慢ソフトというのは、「かつての自分がやりたかったこと」とは違う「画像入れ替え処理」のせいか、心のモチベーションがどうにも上がらないな、とも感じていました。

 そこで、自分で使い倒すソフトにするなら「こうありたい(こういう機能が欲しい)」という初心に戻り、「妄撮ソフト(胸限定)」として、多少のコードを書いてアップデートさせてみました。  

 使い方は簡単で、右のQRコードもしくは、上記のリンクからカメラソフトを立ち上げ、「カメラ撮影/もしくは撮影済みなどの画像を選択」した上で、「妄想する!(Strip it off!)」ボタンを押すと、その妄想が現実のものとして具現化するのです。
 HTML5ベースで動くので、特に環境を選ぶことはないと思いますが、動作テストをしたのはApple iPhone 6s(iOS10/iOS11 Safari)のみです。
 また、試しに使っているようすを撮影したものが、下に貼り付けた動画です。簡単に「現実の世界から妄想が生まれる」さまがわかるかと思います。

続「妄撮カメラソフト」WEBアプリ版(胸限定)






2017-09-01[n年前へ]

下着マチ部分の「わずかな凹凸」がなぜボトムスの上から視認されるのか?  share on Tumblr 

 平日のラッシュ時間、駅のホームから上がる階段は、人がギュウギュウに詰まっている。 その階段を登りながら、こう考えた。

 職場や学校に向かうだろ多くの人に挟まれて、密度高く窮屈に階段を昇っていると、ちょうど1メートルくらい先の正面に、階段を上る女性がいる。 私の顔のちょうど正面に彼女のヒップがあるせいか、それとも何か他のユング心理学的な何か深層心理の原因があるせいか、とにかくその球面状のヒップが目に入る。 もしかしたら、そのヒップが気になったのは、下着の線が浮かび上がっていたせいかもしれない。 女性はストレッチ素材のボトムス(ズボン)をはいていて、階段を昇るために足を上げる動作をするせいか、ボトムスに明瞭に下着の線が浮き上がっている。 それは、下着のアウトラインだけでなく、股部分の左右を繋ぐ「マチ」も線となり浮き上がり、それはまさにあだち充が描く「ムフ♡!」的な気持ちを思い起こさせた。

 人が何に「ムフ♡!」を感じるかは、それはまさに個性で、その人次第に違いない。 けれど、私の場合は、下股部分の左右を繋ぐ、上を凸とする「マチ」の円弧状の曲線に、「ムフ♡!」を感じるらしい。それはもしかしたら、あだち充ではなくて、桂正和の影響だったのかもしれない。

 そこまで考えが漂流してきた時に、こんな疑問が湧いてくる。 「なぜ、下着のマチ部分を、ボトムスの上から見ることができるのだろう?」 「マチ部分には確かに凹凸ができるだろうけど、それほど大きくなさそうな凹凸を、なんで視認することができるのだろう?」 そこで、目の前のヒップを観察しながら階段を登りつつ考えた。

 下着のマチ部分は、他の部分に比べて約2ミリメートルくらい厚い。 つまり、女性の丸いお尻が下着をはくと、丸い曲面上に「下着のマチ」という高さ約2ミリメートル程度の山脈ができる。

 そんな山を持つ曲面面を、さらにストレッチ素材のボトムスが覆うとき、収縮しようとするストレッチ素材の生地を支配する方程式は、ポテンシャル曲面は可能な限り「滑らか」になるというラプラス方程式である。 つまり、下着のマチ部分を覆うストレッチ素材のボトムスがどう見えるかを考えるときには、ラプラス方程式の解を求めればよい。

 自然界の多くの現象がラプラス方程式を使って解くことができるように、下着のマチ厚みが作るボトムス表面形状を、ラプラス方程式で求めることにしよう。…そのために、まずは、下着のマチ部分あたりの女性のヒップを、直径8センチメートルの球面形状だとしてみる。 すると、ラプラス方程式の解を概算すると、下着のマチ部分のストレッチ素材のボトムスは、ざっくり「高さ2ミリメートルで、両側になだらかな斜面が約9ミリメートルほどつづく山(凸形状)」ができることになる。

 すると、次の疑問がさらに湧く。
「高さ2ミリメートルで、両側になだらかな斜面が約9ミリメートルほどつづく山(凸形状)」を人は視認することができるものだろうか?

 約1メートル離れて、視線方向への2ミリの凹凸となると、両眼視差で形状を捉えるようなスケールではない。 となると、そのオフホワイト単色のボトムスに浮かぶ凹凸を識別する手掛かりは、陰影情報だけだろう。

 物体に照明があたるとき、その表面の陰影はコサイン(照明角度)で表される。 ということは、高さ2ミリメートルの下着マチ山脈の陰影は、「両側に約9ミリメートル続くなだらかな斜面」の角度(斜度)を計算し、そのコサインを評価してやれば良いことになる。 ちなみに、下着マチ山脈の斜度を計算してみると、約13度だ。 照明が約45度方向から照らすなら、下着マチ山脈の片側斜面は(他の部分より)約8パーセント明るく、もう片側の斜面はその逆に約8パーセント暗いということになる。

 人の視覚が濃淡模様を識別する特性を考えると、約1メートル離れた9ミリメートルピッチつまり角度約1度の濃淡模様は、数十分の1程度でも識別することができる。 つまり、下着マチ部分の濃淡は、その高さがわずか2ミリメートルだとしても、明瞭に視認されることになる。 もちろん、いわゆる視力的にも角度約1度は約0.02に相当するから、全くもって問題は無い。 結局のところ、「下着のマチ部分の凹凸はわずかでも、その陰影は視認するのに十分な濃淡になる」ということになる。

 と、考えがさらにここまで漂流してきた瞬間、駅の階段を踏み損なって転びかけた。足の先を強く打ち痛い思いはしたけれど、幸い何ともなかった。 階段を昇る目の前の女性のヒップに浮かぶ「ムフ♡!」を眺めつつ、考えごとをすることは、有意義と言うよりは少し危険なことなのかもしれない。

下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?






2017-08-21[n年前へ]

続 300円くらいで「高性能な立体顕微鏡」を作ってみよう!?  share on Tumblr 

 300円くらいで「高性能な立体顕微鏡」を作ってみよう!?で試した、約300円で買ったスマホ用レンズで特殊撮影+後処理+3D表示をするソフトウエアを、スマホ(iOS)単体で行うことができるようにする作業をしています。

 そんな「300円でできるスマホ立体顕微鏡ソフト」を作る作業をしていると、スマホが「ありとあらゆるセンサー」と「昔のスパコンレベルの計算能力」を備えているために、なんだかとても楽しくてハマっているところです。

 いわゆる「8月31日まで」の夏休みの終わり・・・までに終えることはできそうにないですが、9月の終わりくらいまでには一旦リリースしたいなと思っています。

続 300円くらいで「高性能な立体顕微鏡」を作ってみよう!?続 300円くらいで「高性能な立体顕微鏡」を作ってみよう!?






2017-08-03[n年前へ]

8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。  share on Tumblr 

 今週末、8月5日と6日、東京ビッグサイトで開催されるMaker Faire Tokyo 2017を散策しに行くことにしました。「踊るアホに観るアホ、同じアホなら踊らな損」だと後押しして頂いたので、「ををつか屋」(A-01-04)に間借りして、スマホ(BLE)制御の特殊三脚撮影システムを展示しようと思います。

 もちろん、ここ1年の間に作ったその他特殊機器や機械学習応用のソフト資料も持って行く予定です(多分ね)。…というわけで、そんなアレコレに関する技術系雑談や各種応用相談、あるいは残暑の雑談や来場する方からのご自慢を伺うことなど、そんなことを楽しみしています。





8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。






2017-08-01[n年前へ]

300円くらいで「高性能な立体顕微鏡」を作ってみよう!?  share on Tumblr 

 先日、「3000円くらいの立体顕微鏡」を作ってみました。けれど、3000円ではまだ高い!というわけで、そのさらに10分の1のお小遣いでも買える「300円くらいの立体顕微鏡」を作ってみました。

 「やったこと」をひとことで言うと、300円ほどで買ったスマホ用レンズを使って、スマホからの特殊撮影をすることで、300円のレンズ+スマホを立体顕微鏡に仕立ててみました。

 たとえば、下に貼り付けたのは、深圳の油画村(大芬油画村)で買った「油絵」の表面を撮影してみたものです。油絵具材の盛り上がりのようすが見てとれます。こんなようすが、300円程度のレンズとスマホを使って撮影できるのは、結構面白いのではないでしょうか。

 下に貼り付けたテスト撮影を眺めると「千円札のインク盛り上がり」くらいなら撮影できそうな感じです。

 この後は、レーウェンフック系の単レンズ顕微鏡用のボールレンズや「水滴「など、各種安レンズを使ったテスト撮影を行った上で、来週には、コストはさらに10分の1・解像度はさらに10倍くらいの世界を目指してみたいと思います。 10ミクロンオーダーくらいの面内&高さ精度の立体顕微鏡を、100円玉一個くらいで実現するのが来週の目標です。…そして、今年2017年の夏休みの終わり頃には、それを誰でも使えるようにしてみたいと思います(と、日記には書いておこう)。

300円くらいで「高性能な立体顕微鏡」を作ってみよう!?300円くらいで「高性能な立体顕微鏡」を作ってみよう!?300円くらいで「高性能な立体顕微鏡」を作ってみよう!?300円くらいで「高性能な立体顕微鏡」を作ってみよう!?300円くらいで「高性能な立体顕微鏡」を作ってみよう!?






2017-07-26[n年前へ]

Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げるTypeetoが「結構良い」  share on Tumblr 

 スマホ(iOS)上でPythonプログラミングできる環境 Pythonista が便利です。とはいえ、スマホのキーボード上でプログラミングするのは快適なものではありません。…かといって、Bluetooth接続の外部キーボードなどをスマホに繋げると、今度は(普段使っている)キーボードとの違いが気になります。

 そこで、(普段使っているPCである)Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げることができるソフトウエア Typeeto を使い始めました。この Typeeto が結構良かったので、使い方をメモしておきます。

 まず、Mac(OSX)マシンに、「iOS(外部デバイス)側から」Bluetoothで接続しておきます(自動で接続するようにしておきます)。その状態で、Typeetoを立ち上げると(実際には、Typeetoは自動起動にしておいて、ショートカットキーで、デバイスに対して入力するかを指定して実行すると)、あたかもMac(OSX)のキーボードがiOS(外部デバイス)側の外部キーボードになったかのような状態になります。すると、少なくともOSX/iOSユーザであれば、実に自然な感覚でタイピングも(デバイス内での)コピペも日本語入力もできるようになります。

 ちなみに、OSX側のクリップボードからのコピペもできるのですが、Macから外部デバイスへのコピペに関しては「日本語はNG/(英字モード含む)ATOKを入力ソースにしているとNG」というハマリどころがありました。コピペはもちろん、ショートカットの登録も、入力ソースがATOKの場合には上手く動きませんでした。

 また、いわゆるSendKeysのような形態で実装がされているようで、キーボードを1文字1文字タイプしていくような具合で(Mac OSX側からiOSへの)コピペならぬタイピングがされていきます。そのため、非常に長い文章をコピペするには向きませんが、いわゆる短めのソースコードやURLなどを(OSX側からデバイス側へ)コピペして作業するにはとても便利です。(この場合、iOS側の予測変換などの余計な機能は切っておかなければ、入力された文字が書き換わってしまい、困ることになります)

 他の類似機能を持つソフトもありますが、少なくとも、OSX-iOSという使い方であれば(そしてOSX側の日本語文章をデバイス側にコピーしたいというのでなければ)、このTypeetoは結構良いできです。(為替レートにもより)1300円くらいの値段がしますが、Mac(OSX)側とiOS側の両方で同時作業をする人なら試してみても良いかも、です。

Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げるTypeetoが「結構良い」Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げるTypeetoが「結構良い」Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げるTypeetoが「結構良い」






2017-07-17[n年前へ]

WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」  share on Tumblr 

 WEBベースのカメラアプリ、「私、脱いだらスゴイんです!ー筋肉自慢 版」を書いてみました。先日作った「妄撮アプリ」、つまりはopenpose を使った人体姿勢推定からの脱衣的な画像処理を、取り回し良いように修正を入れた上で、スマホ対応のWEBカメラアプリ(撮影・画像処理アプリ)にしてみたものです。

 画像処理のサーバ側は、Python/bottleという、恐ろしいチープさなので、サーバが無反応とかエラー返すことも多そうな気もしますが、「まぁ気にしない」ということにしておきましょう。

 今回の想定用途は、自撮り用カメラとして「ウソっこ筋肉自慢」です。…といいつつ、サーバ立ち上げ用に画像処理テストをしていると、腐女子のための「妄撮」カメラの方が似合う気がしてきます。けれど、それは腐女子の生態を理解していないことによる勘違いな気もします(そんな発想をする、腐女子という存在は無いのかも)。

 WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」のURL、"/lookInside/muscle" というURLを眺めると、当然「これはアレだな。muscle部分を変えれば、違う用途にも動きそうだな。"lookInside"が”手続き”で、"muscle"部分がーどんなキーワードにもとづくかーなんだな」と思われそうです。・・・もちろん、実際のところ、そういう作りにしていますが、この記事を書いた時点では look inside できるのは "muscle" だけにしてあります。

WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」






2017-07-02[n年前へ]

USB顕微鏡で「簡易立体顕微鏡」を作ってみる  share on Tumblr 

 今日は、USB顕微鏡を使って「立体顕微鏡」を作ってみました。照明周りとソフト側をいじり、下記のような撮影をして、Shape From Specular 手法で法線積分から形状生成をすることで、カラー立体画像を撮影可能なUSB立体顕微鏡へ変身させてみる!という具合です。つまり、USB顕微鏡を「照明光の向きと各画素に対する撮影方向から、法線方向を推定し、その法線積分による形状を生成する」USB 3次元形状撮影顕微鏡に変身させてみた…という具合です(撮影のようすは、下に貼り付けた動画を見るとわかりやすいかもしれません)。

 下に貼り付けた、添付画像は「五千円札の樋口一葉」の目を中心にした「1ミリメートル角くらい」ぐらい部分を撮影してみたものです。五千円札の樋口一葉の眼を描く、インクの超盛り上がり具合を確認することができます。

 といっても、お札は偽造防止のために、触感でも本物・偽物をすぐに判別できるように、超盛り盛りでインクを盛り上げてあります。だから、これくらいの撮影ができなければ、…実際のところ「立体顕微鏡」なんて名乗る資格は無いのです。

 今や高倍率のUSB顕微鏡も1000円くらいで買うことができる時代。そして、「あったらいいな」と思うことを実現する処理アルゴリズムも、コンピュータで簡単に走らせることができる今日この頃。

 それはつまり、千円あれば「あんなことやこんなこと」…色んなことができるというのが2017年の夏なのかも、と思ったりします。

格安USB顕微鏡で「簡易立体顕微鏡」を作ってみる格安USB顕微鏡で「簡易立体顕微鏡」を作ってみる格安USB顕微鏡で「簡易立体顕微鏡」を作ってみる格安USB顕微鏡で「簡易立体顕微鏡」を作ってみる






2017-06-10[n年前へ]

「今と昔の暦がイキナリ1ヶ月ズレたのは給料1ヶ月分カットが目的」という驚き納得する話  share on Tumblr 

 『「今と昔の暦がイキナリ1ヶ月ズレたのは給料1ヶ月分カットが目的」という驚き納得する話』を書きました。よく、新暦と旧暦の違いから、お祭りの開催時期が本来の時期より1月ズレる問題を考えることがあります。そんな旧暦・新暦変更の歴史的な経緯が、素晴らしく(経済ロジックとして)わかりやすい…という話。

年末近くの11月、まさかの「来年からは、全然違うカレンダー使うことにしました!」という明治政府の発表は、来年の暦(カレンダー)を作成真っ最中の業者など、大混乱を引き起こしたといいます。…「さまざまなことへの影響が大きい暦の変更を、なんでイキナリ急いでやるの?」と思ったアナタは鋭い!聞けば納得の理由があるのですが、それが明らかになるのはもう少し先。

「今と昔の暦がイキナリ1ヶ月ズレたのは給料1ヶ月分カットが目的」という驚き納得する話