SNSでの議論をマシにするにはどうすればいいのか

こんにちは。


今回は、机上の空論的な話です。つまりは、今後紹介していくwebサービスに繋がるお話です。

さて、皆さんはSNSの議論は建設的ではないため無駄だと感じており、当然のごとく避けているのではないでしょうか。私もその一員であり、何ならSNSを見ているだけでも時間の無駄だと感じています。

SNSでの議論を批判する記事で調べていたので、無意味さを問うものが多いのは当然ですが、下記の記事はどれも論理的で共感できますね(こんな風に知的に意見が述べられるようになりたいものです)。


私はそんなSNSでの議論の在り方を、改善する目的で見つめ直すべきなんじゃないかと考えています。これは、誰でもわかるような「SNSで議論をするべきじゃない!」ということを言いたいのではなく、「こうしたらSNSでもまともに議論できるね!」ということを考えるべきだという意味です。
真剣に考えた想いを、オフラインでもオンラインでも発言できない社会は楽しくなですしね。

f:id:ume-boshi:20210222002214p:plain
Canvaとの連携機能が追加されていたので作ってみた


問題点の検討

SNS上での議論がうまくいかないのは、意見の発言方法について自由度が高すぎることが原因だと私は考えます。
その自由度の高さからくる問題には、(1)「あくまで呟きである」と開き直れる環境に、匿名性が加わることで極論を気軽に発言できることや、(2)相手の背景がわからないため意見相手を人として捉えられず、読み手の心情を無視した失礼な発言をしてしまうこと、(3)完璧な答えや審判が存在しない中で、多数決的に答えを出そうとしていること、(4)無限に考える時間がある後だしジャンケンであること、(5)頭のおかしい人と気軽に出会えること などがあると思います。

これだけ問題がある環境を改善することは簡単でないと分かっていますが、端くれエンジニアならば無理目な問題にも焦点を当ててみるべきだと思うのです。


どんな発言方法を目指すべきか

さきほどSNS上での意見の発言方法に関する4つの問題点を上げましたが、これを解決できるシステムができないか検討したところ、下記の特徴が必要だと考えました。

  • 特徴1. 発言者の匿名性を弱める
  • 特徴2. 建設的な意見を引き出すことが目的で、答えを出すことは目的としない
  • 特徴3. 議論相手を絞るためのシンボル的な役割を持たせる
  • 特徴4. 意図的に意見投稿までにかかる時間を長くする



上記4つの特徴を備えるために、下記の4つの機能を実装することを考えました。

  • 機能1. 立場や年齢などのわずかな個人情報の提示を行うことで匿名性を弱める
    → 期待する効果1:発言に責任感を抱かせる。
  • 機能2. UIを工夫して様々な立場の存在を強制的に見せたり、発言前の忠告を設ける
    → 期待する効果2:意見投稿までにかかる時間を長くできる。
    → 期待する効果3:次の意見者は、相手の背景であったり様々な立場が存在していることを認識させる。それにより、無意識的に人と対峙している感覚を植え付ける。
  • 機能3. まとまった意見が出るように、一人2回のみ発言できるようにする
    → 期待する効果4:特定の対象を論破することに注力できず、まとまった意見を1回で発言するしかなくなる。 = 建設的な発言をする人の割合が増加する。
    → 期待する効果5:他人の意見を見る過程で変化した場合の、個人としての解を示す2回目。
  • 機能4. 画像を用いた視覚的特徴を持たせる。
    → 期待する効果6:SNSで埋もれづらくなり、提案システムを用いない意見は無視に徹することができる。


提案システム

さて、ここからは私の提案するシステムです。対象とするSNStwitterです。
殴り書き程度の内容ですが、解決にはTwitterカードを用いた手法を考えています。

twitterカードのイメージが付きづらい方は、「マシュマロ」や「ウェブ表彰」などの例を見るといいかもしれません。

f:id:ume-boshi:20210217225903j:plain
責任を持って発言したいtweetに対して、立場を示すカードを1枚添付する

提案システムによるものは議論とは呼べず、単に「1つのトピックスに対して責任をもって建設的な意見を発言する枠組み」と言えるかもしれません。これだけでSNS上の議論が完全に良くなるとは思っておりませんが、マシな人の意見を見る確率は上がるんじゃないんですかね。

前提条件

  • このシステムが広く使われており、1種のマナーと化している(使用していない反対意見は呟き程度の重みであり、無視の対象とできる)
  • 1人1つのまとまった意見が何人からも発言され、その内容から各個人で答えを見出す
  • 1つのハッシュタグごとに、一番最初のカード作成者が記述する内容を決定できる
  • 個人情報はある程度は秘匿した状態で出力
  • 極めて過激なワードが含まれるとカード生成できない(NGワード

お世話になった人にお礼を言ったり、 どうでもいいLINEの終わりにスタンプを押すように、感染症予防対策に消毒やマスクを推奨するように、ネット上でのちょっとしたマナーとしての立ち位置を目指しています。マスク警察みたいな強制はしたくありませんが。

議論内容想定例

現在、1つのハッシュタグに対して1つの記述内容テンプレを保持しようと考えています。そのため背景記述内容を変更したい場合は、別バージョンの議論としてハッシュタグの文面を変えるべきです(提示する背景が変われば議論の方向も変わりそう + 荒らしがテンプレをめちゃくちゃにしても別のバージョンのテンプレを用いればいい)。
そして、議論が建設的な意見を発せるように、解決方法を明らかにする方向の議題が求められます。したがって、下記の様な{テンプレ値 + お題}という順でハッシュタグが定義されると思います。
ハッシュタグ内に特殊文字を入れるのも、検索時にLimitできるので良いかもしれないですね🤗。


例①

  • 日本ではヤクザの象徴だが、海外ではそうではない。入れ墨は危険思想や強さを表すのではなく、一生をもって付き合いたいポリシーだと考えられる。許容するための策として、法的・イベント規制を排除していき、多様性に慣れることが重要だと考える。 #1.入れ墨を国民が許容する方法

    #1.入れ墨を国民が許容する方法
    立場:許容派  年齢:20代  性別:不明
    背景1:好きなバンドのVoが入れ墨している
    背景2:入れ墨をしている海外女性が美しい
    背景3:掘っただけで生き方が変わるのは変

例②

  • 電車内に監視カメラを付けてほしいです…… 痴漢に遭っていても、その場で声を上げることは怖いというのと、その場で捕まえた場合でも証拠として使えると思います。#1.痴漢被害の抑え方

    #1.痴漢被害の抑え方
    立場:痴漢された  年齢:10代  性別:女性
    背景1:電車通学で毎朝恐怖を感じている
    背景2:身なりに気を遣うが週2で被害に遭う
    背景3:休日の私服よりも制服でいるほうが多い

例③(記述する背景内容が変化)

  • 極論かもしれませんが、よく痴漢被害に遭うけど耐性がある人が、万引きGメンみたいに取り締まるのってどうなんでしょうかね。それをテレビで成果を報道しまくったら、男性側の常識が変わって痴漢加害者が減る気はします。#2.痴漢被害の抑え方

    #2.痴漢被害の抑え方
    職業:警察官  年齢:40代  性別:男性
    被害に遭った場所:電車
    加害者の手口:肘や傘を使った証拠がつかみづらい手口
    背景1:娘が毎日のように泣きながら帰ってくる
    背景2:娘は親に不安にさせまいとどこまで酷いことを
        されてるか話してくれない

利点

先ほど、機能のところで述べていた 期待される効果 が利点だと考えています。

つまり、
個人情報公開により発言に責任感を抱かせられると考えられます。また、従来のいくらでも後出しジャンケンができる環境と違い、投稿の回数制限があることにより1つの投稿に時間をかけて、まとまっている建設的な意見が発言されると要素しています。
投稿までに多少時間がかかることで自分の意見を冷静に考えたり、UIの利用で強制的に他の背景の存在を知ったり、投稿前の忠告があることで、発言内容が変ではないか多少考える瞬間を生むことができます。

Twitterカードを用いた視覚的にキャッチしやすいものであり、意見を読むかどうかすぐに判断でき、まじめなことを考えたくないときでも疲れません。カードの内容に依っても、その人の意見をまともに読むべきかやブロックしてもいいかなどの判断材料になり得ると思います(例えば年齢や職業がコロコロ変わる人や、極論者、あまりに特殊な背景を持つ人など)。明らかにヤバい人はミュートの対象として処理できます。

欠点や問題点

まず、面倒くさい問題点は一番大きな障壁になると考えられます。どこまでUIを工夫して手間を減らせるかが重要です。この提案システムが浸透するまでは、使い方が一致しなかったり、お題の命名が下手くそだったり(非建設的になる)すると考えられます。そこで、UI側で「良い/悪いカードの例」や、推奨される書き方などを示す必要があるかもしれません。

次に、周りと比べて明らかに異なる少数派となったときに、一斉的にブロック対象となる可能性があります。Twitterの仕様は知りませんが、何も悪くなくても垢banの可能性が高くなってしまいます。これはブロックではなくミュート機能を用いるような心がけが浸透すると改善するかもしれませんね。
最後に、複数のアカウント所持者や、ローカルで画像複製する人には対処できません。対策としては、電子透かしを入れることだと考えています。こればっかりはブロックチェーンで画像生成者を管理できない限りは厳しいです。また、ハッシュタグ生成に関する荒らしに対処できません。あくまでシステム上で「このバージョンのTweet数」というのを表示するぐらいで対処可能かも。

実装

Web系の勉強のために、GolangをバックエンドにしてReactをフロントとした構成にしようと考えています。画像生成は、文字列を受け取ってからサーバ側でNGワード等をチェックしながら、ImageMagickを用いて生成しようと考えています。
ちなみに現在は、GolangでのREST APIから実装している最中です。研究や就活と並行でゆっくりと進めているため、web開発が得意な人は先を越さないでください……
別の開発アイデアをあげるので……


おわりに

身分を明かすほどのリスクを負って発言に責任を持たなければ、従来通りSNSでの議論は不可能だというのが私の結論です。 個人情報を一部公開したシンボル的な特徴を持つTwitterカードによって、SNSでの議論がマシになってほしいですね。

より良い世界を作れるよう、私もシステム制作を頑張っていきたいと思います。


この話題については、もう少し開発が進んでから進捗・コード紹介しようと思います。引き続きよろしくです。

【Instance segmentation】訓練データ生成用アノテーションツールを作成したよ :3【紹介編】

こんにちは。


以前の記事で、YOLACTというinstance segmentation手法を紹介しました。そのとき、自作のデータセット(custom dataset)を訓練データとして用いていました。今回は、その訓練データの生成についての記事です。

f:id:ume-boshi:20200911045104p:plain:w400
こういうやつ
ume-boshi.hatenablog.jp


Instance segmentationの訓練データを作る際、下記の様な手順で行うことが主流だと思います。

  1. web上からスクレイピングして対象物の画像を収集
  2. LabelMeというツールを用いて、手動で輪郭の代表点をプロット & 各画像ごとにJSON出力
  3. labelme2coco.pyを用いてjsonファイルを統合

annotationする画像枚数が少なければこの手法でも問題ないですが、枚数が多くなったり対象物の形状が複雑なほど手作業は面倒くさくなります。マゾな人は手作業して苦労したいのかもしれませんが、私はsemi-マゾなので苦労しないために実装に苦労しました。


概要

まあ、そんなこんなで、たった1つの短時間の映像から訓練データを半自動的に生成するようなtoolを作成しようと考えたわけです。

youtu.be

github.com

入出力としては、対象物を周囲から撮影した1分程度の動画を入力として、輪郭抽出とデータ拡張された画像とJSONファイルを出力とします。


我々はちょっとしたお絵描きをするだけで、画像1枚当たり10秒もかからないで処理できます。データ拡張も雑に実装してあるため、1枚の画像からn倍のデータを生成できます。

なので、1分の動画を入力しデータ拡張を10倍とするならば、10分程度の時間で{60 + 60*10} = 660枚の訓練データを生成できます。我ながら革命やな。

f:id:ume-boshi:20210206203646p:plain:w400

使用方法

想定している大まかな使用手順は、次の5段階です。

  1. githubから本ツールをcloneしてくる
  2. スマホwebカメラで対象物を周囲から撮影し、PCに保存
  3. backgroundのフォルダに、背景にしたい画像を保存
  4. ツールを起動する:python annotateFromVideo.py targetVideo.mp4 targetObjectName
  5. 前景と背景を選択していく(jpgとJSONが自動的に生成される)
  6. ツール終了後、githubからlabelme2cocoをcloneし、それを用いてJSONファイルを統合(trainval.jsonを出力)


背景画像について

MS COCOなどのデータセットから適当に1000枚程度コピーしてきて、保存することを想定しています。

ファイル名は下記の通りにしてください。

1 (1).jpg
1 (2).jpg
1 (3).jpg
︙

f:id:ume-boshi:20210207043537p:plain:w400
こんな感じに

Windowsでは、画像ファイルを全選択して「名前を変更」をし、1つ目の画像を「1.jpg」とすると自動的に他の画像も変更できます。

LinuxMacの人は適当にコマンドを打って解決してください(なげやり)。


対象物抽出について

輪郭抽出のためにGraphCutという前景と背景の分離手法を用いており、ユーザはマウスカーソルで前景と背景を色塗りしていくだけです。PowerPointの画像背景削除ツールに似た使用感。


ツール実行中に使用できるコマンドは5つあり、下記の機能を持ちます。

  1. [ b ]必ず背景としたい箇所をマークできるモードに変更
  2. [ w ]必ず前景としたい箇所をマークできるモードに変更
  3. [ g ]背景と前景の抽出を試行する
  4. [esc]背景と前景の抽出を確定し、次の画像へ進む
  5. [ q ]途中でツールを終了できる


注意点

  • 前景と背景の色塗り(白黒)を間違えた場合、そこは正しい色ですべて塗りつぶす必要があります
  • 輪郭抽出をミスした場合、その画像に関する「./outputImages/○.json」ファイルを削除してプログラムを実行しなおすと再挑戦できます
  • 「outputImages」と「contourResults」のフォルダを事前に作成していなければ正常に実行できません
  • labelme2cocoの実行時にはすべてのjsonファイルを参照するようになっており、変なjsonファイルを保存しないようにしてください。


実行環境

Python 3.8
- numpy 
- opencv-python


実行前後のディレクトリ構成は下記の通りです。

【実行前】

project
 /annotateFromVideo.py
 /targetVideo.mp4
 /outputImages    //訓練用データ
    /label.txt
 /contourResults    //輪郭確認用データ
 /backgound    //背景画像
    /1 (1).jpg
    /1 (2).jpg
    /1 (3).jpg
      ︙

【実行後】

project
 /annotateFromVideo.py
 /targetVideo.mp4
 /outputImages    //訓練用データ
    /label.txt
    /0.jpg
    /0.json
    /0-0.jpg
    /0-0.json
      ︙

 /contourResults    //輪郭確認用データ
    /0.jpg
    /0-0.jpg
      ︙

 /backgound    //背景画像
    /1 (1).jpg
    /1 (2).jpg
    /1 (3).jpg
      ︙

labelme2cocoJSONを1つに統合する際、categoryのIDが0として出力されます。これはYOLACTの学習時には問題が生じるため、下記の様にコードを書き換えてもいいかもしれません。
もしくは、labeme2coco実行後のtrainval.jsonについて、"category"のIDを置換すると良いでしょう。

変更後labelme2coco ↓

def annotation(self, points, label, num):
        ︙
        annotation["category_id"] = label[0] + 1  # self.getcatid(label)
        annotation["id"] = self.annID
        return annotation]

    ︙
    def category(self, label):
        category = {}
        category["supercategory"] = label[0]
        category["id"] = len(self.categories) + 1
        category["name"] = label[0]
        return category
       ︙


おわりに

人に使ってもらおうと思うツールを公開するのって怖いですね。なにより文章化がめんどい。


まだ糞UI + 若干バグが残ってますがお許しください。勝手にバグを直して、なんなら誰かPyQtGUI化してくれるとありがたいです。そこら辺のセンスが私にはないので頼みます。



そのうち実装するかもな内容 ↓

  • 作業をひとつ手戻りする機能追加
  • PyQtによるGUI
  • 明るさ、色調、ノイズ付加なども用いたData extension
  • 複数種類の物体についてアノテーションできるように拡張

【ESP32】小型擬似オムニロボットを自作したよ:)

こんにちは~~~


皆さん、toioというSTEM教育用のロボットをご存じですか?
このロボットは約3cm x 3cmの極小サイズでありながら、エンコーダ付きの2輪駆動でスピーカーやモーションセンサ、磁気センサ、絶対位置センシング(仕組みは不明。赤外線カメラ?)などの多彩な機能を搭載しています。
専用のマットを用いて絶対位置が取得できるらしいのですが、マットの色にパターンがあり、そのパターンから位置を推定しているのだと予測されます。

https://toio.io/blog/img/ac37bb5e6c89132532cb48b0089c6e3e3d45cf13.jpg?v=20201102



さて、この高機能なtoioですが、2輪駆動なので回転移動を加えなければ移動方向が限られています。右に進みたければ、90度回転してからでないとその方向に進めません。移動方向の自由度を上げるためには、オムニホイールやメカナムホイールを用いたロボットが用いられています。



私は以前、メカナムホイールを採用したロボットを作成していましたが、今回はオムニホイールの特徴を持つ小型の移動ロボットを作ってみました。

まあ、toioと比べてエンコーダも光学センサも搭載していない貧弱マシンではありますけどね。。。


製作したもの

自作基板用のモータドライバシールドを設計し、

ume-boshi.hatenablog.jp

それを用いて ↓ の製品の仕組みで擬似オムニホイール駆動式のマシンを作成しました。この製品は、M5stickC用のやつですね。

www.digikey.jp

使用部品

主に使用した部品は下記のものです。自作基板はM5stackみたいなものだと思ってもらえれば大丈夫です。

回路

雑ですが、モータ動作のための回路は ↓ の画像のようになっています。

f:id:ume-boshi:20210120223350p:plain:w400
モータを動作させる回路のところだけ参考にしてください。

左側のほうにある、13pinと9pinのところが自作基板との接続部分になっており、そのうち8ピンを用いてモータを制御しています。モータ制御部は完全に別電源にしたいと考えた結果、その8pinの信号についてフォトカプラアレイ(TLP291)を介して伝達するようにしています。フォトカプラ使っているので、抵抗がたくさんありますね。
別電源として制御される8信号を、最終的にDRV8835のほうに突っ込んで、モータが動作するような感じです。

一応、エンコーダが4コマで使えるようになっています(移動を取得する術が思いつかなかったので使っていませんが)。



基板図については、ひどすぎるのでまだ公開できないです。。。


モータの取り付け

非常に雑な方法ですが、木材をカッターで切って作りました。角をうまく削って、4つのモータが45度で入るようにし、それを木工用ボンドで取り付けるという荒業。

工作なんて必要機能が満たせるなら、これぐらい雑でいいんですよ!(なお、既に気に食わなくて3Dプリント用データは作成した)

f:id:ume-boshi:20210121195413j:plain:w400
木とボンドとテープで作る。工作の初歩です。



モータの先端には、グリップ力を高めるための木工用ボンドがついています。

f:id:ume-boshi:20210122054412j:plain:w400
グリップ代わりにボンドがついている。

最後に、布テープで木材と基板を繋げて終わりです。


試作品

試作したデバイスが ↓ です。

f:id:ume-boshi:20210121195608j:plain:w400
まだまだ試作感がありますね



そして、ただ前後動作させた例が ↓ の動画。

youtu.be

外部電源対応にしたせいでパワフルになりすぎ、全然まっすぐ進んでいませんね!
どうやって修正しようかなぁ。。。


おわりに

皆さん、「何に使うんだろう?」と疑問に感じているのではないでしょうか。こいつに関しては、とりあえずラジコン化したいと考えていますが、さらに発展形も既に考えています。楽しみにしておいてください... :)

まあ、就活も研究も何もかもうまくいっていないので、お見せできるのはずいぶん先だと思いますが。

VAQSOをデバッグしてみた

こんにちは。

この前、VAQSOについてちょっとしたディス記事を書きましたが、それを修正してみてどのPCでも動作できました。そこで本記事では、修正方法について簡単にまとめようと思います。

ume-boshi.hatenablog.jp

色々と紆余曲折しながらデバッグしたので私は時間がかかりましたが、おそらく、紹介する手順で最短に修正できると思います。


問題

  • ファンを動作させるコマンドを送信した瞬間に、ファンが動作せずコマンドも受け付けなくなる
  • 一部のPCでは動作が不安定(ファンが1つも回転しない)
  • 複数のファンを同時に動作させられない


電源の強化

まずは電源の強化です。VAQSOでは、一部のPCにおいてファンを1つでも回した際にマイコンにおいて電源不足が生じ、リセットされる問題があります。 この問題の解決には電源にコンデンサを噛ますことが有効でした。

私が使用したのは秋月電子通商で販売されている電解コンデンサです。それを画像のようにハンダ付けするだけです。短いほうの足がGND側になります。ケースに収まるように足の長さは調節してくださいね。

f:id:ume-boshi:20210112180713p:plain:w400
電解コンデンサの短いほうがGNDに接続されます。


プログラムの変更

現状でファンが1つも回らないという問題はなくなりました。しかし、複数のファンを同時に動作させることは現状ではできません。そのため、1つずつファンを動作させ、そのファンを高速に切り替えることで複数のファンを同時に動作させるようにしています。

ということで、プログラムを書き換えていきます。下記のリポジトリにコードがあるので、適当に自身のPCに持ってきてください。

github.com

VAQSOはマイコンにPololu A-star 32U4が使用されており、そいつにプログラムを書き込みます。 Arduino IDEで書き込みを行いますが、そのためにドライバの準備やボードマネージャの設定をする必要があります。

これに関しては下記のサイトが参考になります。


VAQSOの操作コマンドについて

文字列の処理に自由度を持たせためんどうな実装をしたくなかったので、公式のものから勝手にコマンドを変えました。全部5文字のコマンドです。通信速度は115200bpsとしています。

まず、ファンは1つずつ起動させていきます。そのコマンドは下記の様になります。

fan01   // ファン0 を 起動  
fan00   // ファン0 を 停止  
fan21   // ファン2 を 起動  

次に、すべてのファンをON/OFFするコマンドです。使う機会はありませんが下記の様なコマンドです。

allf1   // ファンをすべて起動  
allf0   // ファンをすべて停止 = resetコマンド  

最後に、状態をリセットするコマンドです。

reset   // ファンをすべて停止 = allf0コマンド


外部電源での補助

ここまでの修正内容で基本的な動作はできるようになりますが、複数のファンを同時に動作させた場合、回転が貧弱な問題は残っています。複数の香りをパワフルに出力したい場面では外部電源が有効かもしれません。

方法としては、GNDと5Vの間に5V電源を挟むことです。VINとGND間に色々な電源を接続しても無意味でした。。。

私はamazonで購入したばかりの電源装置を用いて実験したのですが、複数のファンを擬似的に同時開店してもパワーは安定します。

ただ、外部電源の有無は制御マイコンの電源不足問題を全く解決しません。また、5つのファンを電気的に同時に動かすこともできませんでした(2・3個ならいけるのかも)。


おわりに

なんかいろいろあって、マイコンに書き込みができない状態になった場合は、RSTピンとGNDを短絡させてマイコンのリセットを行なうと解決できると思います。私は、起動時に5つのファンを同時に回転させるプログラムを書いていたとき、そのような現象に陥り、RESETしまくって問題が生じないように直していました。

速度調節に需要があれば実装します。その際はf0100とかf3045みたいなコマンドにします。まだ実装してないけど。

画像ラボ1月号に記事が掲載されました!

あけましておめでとうございます!今年もよろしくお願いします!

2021年1月の画像ラボに、卒論時の成果のが掲載されました。 雑誌に記事が載ることなんて滅多にないことなので、一応ご報告です。

画像ラボとは、日本工業出版(株)の出版されている雑誌の1つで、カメラ・レンズ技術であったり、画像処理や画像認識を用いた応用技術などを取り扱っているみたいです。大企業からの記事が半数、有名大学の教授レベル方々の記事が4割近くであるレベルの高そうな雑誌。。。
そのなかで私の記事が掲載されたことは、非常におめでたいことだと思っています。

f:id:ume-boshi:20201228232921j:plain:w400
画像ラボ1月号に掲載されました!


内容は大したことがないのですが、私が卒論に取り掛かっていた際に既存研究が無さそうだったことを別のところで論文投稿にしたところ、それが画像ラボの方に目についてに記載させていただける流れになりました。私の記事は14ページからのやつです。



具体的な記事の内容としては、「装着型アイトラッカーを用いた視線情報の分析では、頭の角度が変化したり物の位置が変わったりするから、どの物体を見ているかが座標情報だけではわからない → じゃあYOLO v3を使った物体抽出で解決できるね!」ということです。いわゆる、注目物体の遷移を自動的に時系列データ化したことが主題になります。

内容がシンプルで満足がいかなかったため、実際に生成した時系列データを如何に分析できそうかも書きました。が、データサイエンスの専門家から見たら鼻で笑われそうな無いような気もします。。。

f:id:ume-boshi:20201228233216p:plain:w400
こういうのが装着型アイトラッカーです。200万円くらいする。。。



そんなこんなで、初めて技術雑誌に載ったので興味のある方はぜひ読んでみてください!
(まあ、無料で転がってる別の論文を読んでくださったほうがコスパがいい気もしますが。)

ちなみに、19ページ左の下から5行目の「””」は校正時に修正箇所を強調したらそのまま残っちゃったという感じです。原稿を途中で修正しすぎたせいで編集の方にお手数をおかけしてしまいました。。。