自然災害のリスクとかの特集番組で「AIによる予測」みたいなのがあるのですが、どういったプログラムを組んでいるのか、概要がサッパリ解らずです。
自分も過去の趣味や仕事でプログラムを組んだのですが、フローチャートを先ず作ってそれを翻訳するような流れの範囲で。
流れと判断さえ伴っていれば、言語を問わずに組めるモノくらいな意識でした。
なので、AIが導き出すキーワードの紐付けみたいなのが、難解でして。
「この言葉とあの言葉は相性が良い」みたいな統計でも取っているのかな?
大きいらしい台風が近付く深夜、何気にテレビを点けてみると、台風についての解説がずっと続いていました。
しばらく前でしたら、30分に一度程度にアナウンサーが登場してリアルタイムで解説していたのですが、現在はそんなことも無くAIの音声がずっと解説してくれていて。
人工的に作られた音声なのですが、この発音がかなり自然でほとんど違和感無く。AIを使えばこれが実現できる理屈もサッパリ解らず。調べれば解るのかな?
ただ、イントネーションでちょっと違和感ある部分もありました。普通の人間でしたら発音し難い部分をサラッと音読出来てしまう部分でした。
逆に聴き易くて良いのですが、こんな部分をワザと聴き取り難くしたら、完璧なのかな?とも。
こうなると本末転倒なのですが。
そこで思い出した症状が。
自分、昔から騒音の中での言葉が聴き取り難く。周りが色々な会話をしている中での一対一の会話でも同様な症状で。
両耳に手を当てて聴いても聴き取れず、相手も一生懸命で申し訳なく。
数年前に知ったのですが、これはAPDという病気らしく。
こんなのをせっかく綴っているので、対処方法も調べておかねば。
話が少し飛びます。
ジャズトランぺッターの日野照正さんが過去に語っていました。
「アドリブの演奏というのは、真綿の中から金の糸を一本引っ張り出す様なもの」と。
これは確かにその通りだなぁと。
聴く側だけでなく、演奏する側も埋もれないフレーズをリアルタイムで紡いでいるんだなぁと。
自分もジャズが好きなのですが、アドリブがとくと下手で。
静かな場所でゆっくり話せるのが好きです。
聴くのも同じで。
パッと出てこない素敵なフレーズもあったりで。
なので、会話より文章にする方が自分には楽だったり。
これは、単に頭の回転とか記憶力が悪いだけなのかもなぁと。
コメント