オンライン中継

昨日の御嶽山、いよいよスマホ携行実施。もちろんまだデジカメがメイン。
往路で1枚、下山後1枚を撮影してデータ量の減り具合を確認。さして多くはありませんが、1山行あたり100枚も取ったんじゃあ1ヶ月3GBなんてあっちゅうまに消えて無くなります。写真は撮影と同時にGooglephotoのサーバに送られているようです。一度撮ったものをリサイズして格納って訳にはいかないようです。撮影前に画像サイズを小さくする事も出来ません。実質最大サイズで固定されているって事ですね。
撮った写真をSNSに投稿するのは、スマホから画像データを直接SNSのサーバに送る訳ではないのでデータ量の減りは微々たるものです。(GooglephotoのサーバからSNSのサーバへ送っているか、或いはSNS側ではGooglephotoを参照しているだけだと思われます。)
撮ったついでにLINEのTimelineに投稿しましたがギガ(データ通信量)は全く減りません。
いずれにしても自宅でWifi経由がメインなので、山行時にオンライン中継なんて時期尚早です。しかし便利な世の中です。ギガさえ気にしなければそれがもう可能なのですから。それが出来れば帰宅後写真の整理をして記事UPなんてしなくて済みます。
画像からそれが何なのか調べるGooglelenz、これも画像をGooglelenzのサーバに一度送り、その中で他の画像と比較し特徴が似ているものを選択しそれを提示して来る訳ですから当然ギガは減ります。
帰りに寄った蕎麦屋に可愛い蕾の写真が飾ってあり、Googlelenzで検索すると【マツムシソウ】がヒットしました。半信半疑ながらお店の人に確認すると正解でした。このGooglelenz、意外なところで正解したかと思えば、誰が見ても解るものが不正解だったり。所詮これが現在のAIの限界。Deep learningは途中のプロセス抜きの手法です。言わば「風が吹けば桶屋が儲かる」の類い。風が吹いたからといって必ずしも桶屋が儲かる訳ではありません。一昔前のExpart Systemの方がプロセス間のスキーマから連想を続けて行くので余程AIらしいです。
盲信するのではなく、「かもしれない」程度で参考にして行きましょう。
以下は、スマホで昨日その場で投稿した写真。
f:id:tanuo:20211003164934j:plain
f:id:tanuo:20211003164943j:plain