21:05:37
2023-09-06 21:02:07 Posting ねそてち🍆 neso@mstdn.home.neso.tech
icon

開きっぱなしにしてる ttps://koukoku.shadan.open.ad.jp:992/ でXSS大会始まってて草

Attach image
20:17:37
2023-09-06 20:17:01 Posting uaa 1f46356a832a4b2d65c12e9f7c6fd8608a285b1efa896773f4f67c6ee9e33e21@mostr.pub
icon

This account is not set to public on notestock.

07:24:50
icon

??? 手本となる看護実習記録の「情報収集」から「アセスメント」への展開における短単位n-gram と対数尤度比を用いた特徴的な表現の分析 (金城学院大学論集. 人文科学編 18 (2), 236-243, 2022-03-31) cir.nii.ac.jp/crid/10508558098

Web site image
手本となる看護実習記録の「情報収集」から「アセスメント」への展開における短単位n-gram と対数尤度比を用いた特徴的な表現の分析 | CiNii Research
06:49:24
icon

data.arpaには<unk>無いんですよね…

06:47:31 06:48:02
icon

ん、でも待てよ?(自分の理解足らんかも)

smoothingは<unk>に対してどう出現率を割り当てるかって話、backoffは<unk>出現時に(N-1)-gramの候補を精度よく選び出すためのヒント、そういう話で良いのかな。

06:45:53
icon

どんなsmoothing使ってるかは分からないけど、単語数が少なければ計算結果が大きく変わるのは当然か。

06:44:04
icon

n-gram probability count in ARPA file stackoverflow.com/questions/29 (2016/7/16) 自分と同じ疑問だ。1-gramは分かるけど2-gram以降の計算って、ってやつ。

smoothingが効いてるから思った通りとは違うよん、って回答があるな。