音声入力でAIに聴覚障害者が発音指導される SFっぽい日常ってお話

こんばんは。くらげです。

音声入力で発音が良くなる

ここのところ、音声入力で自分の発音がどう聞こえるのか意識し始めたら、かなり滑舌が良くなってきたので調子に乗って職場の人に話しかける機会が増えました。

こんばんわ。くらげです。 今週の対談更新しました 音声入力にドハマリ中 キワモノガジェット好きなくらげさんですが、最近は「音声入力...

職場では精神的引きこもりなのですが、意識を無理やり外に引きずり出すgoogle音声入力はすごいですね。多分こういう効果を実感する人もそんなにないと思いますが。

滑舌が悪いのはコンプレックス

なんやかんや言っても耳が悪いので滑舌は悪く、どもりまくります。自分の発音にはコンプレックスはあるわけでして、勇気を出して話しかけて「何を言ってるか分からない」というような反応があるとかなり凹みます。

そこで、人にもスマホに話しかけるように、音節ごと区切ってゆっくり話をするようにしています。この喋り方だと、 AIのみならず人にも聞きやすいようですね。人の反応はスマホよりもはっきりしないので困ります。

こんばんわ。くらげです。 全部、青くない。 次のNHKの朝ドラは「半分、青い。」という片耳が失聴した女性を主人公としたものだそう...

淀みなく喋るのはスマートですし憧れますが、僕が真似をしようとすると口がもつれてふにゃふな喋り方になってしまいます。話すこともツールですので、見た目のスマートさよりも、いかに正確に物事を伝えるかを考えるも大切ですね。

しかし、AIに話しかけて人間が自分の声がいかに聞こえにくいかに気づくのもかなりSF的ですね。これ発音の練習に良いかもしれないですね。聴覚障害者だけでなく、外国人にも使えるかもしれません。

しっかり発音できても…

それでもまあ、発達障害と言うかコミュ障的にあるあるですが、話しかけた後に話のラリーができなくて何を言いたいか全然伝わらず死にたくなる時があります。

なぜ話が続かないか考えたんですが、どうも話の一発目しか考えてなくって「どうレスポンスが帰ってくるか、 それに対してどのように対応するか」を想定をしていないようです。要は話しかける、というところに意識が行き過ぎてて、「どう話を着地させるか」はまだまだ意識できないようです。

一般的な雑談ではそれでも良いのですが、仕事の上でのコミュニケーションではある程度結論を纏めたりなぜ話すかの着地点が明確にしておかないとコミュ障として詰むことがわかりました。

周囲がどのように話してるか事前に学べないことの不利なところはこういうところによく出ますね。気づいたからには学んできたところですが。

踏ん張りましょう

では、今日はこのくらいで。皆さん、自分の弱点を認識しつつ踏ん張りましょう。では。