<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>きのこる庭 &#187; ML/AI/DL/NLP/統計</title>
	<atom:link href="http://kinokoru.jp/archives/category/ml_ai_dl_nlp_%e7%b5%b1%e8%a8%88/feed" rel="self" type="application/rss+xml" />
	<link>http://kinokoru.jp</link>
	<description></description>
	<lastBuildDate>Wed, 09 Jan 2019 03:18:33 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.5.2</generator>
		<item>
		<title>Character-level Convolutional Neural Networkについて調べてみた</title>
		<link>http://kinokoru.jp/archives/1548</link>
		<comments>http://kinokoru.jp/archives/1548#comments</comments>
		<pubDate>Mon, 12 Feb 2018 06:20:24 +0000</pubDate>
		<dc:creator>Nisei Kimura</dc:creator>
				<category><![CDATA[ML/AI/DL/NLP/統計]]></category>

		<guid isPermaLink="false">http://kinokoru.jp/?p=1548</guid>
		<description><![CDATA[<p>元論文 Character-level Convolutional Networks for Text Classification ( arxiv ) 概要 One-Hot表現に変換した入力値をEmbeddingした後 [...]</p>
<p>The post <a rel="nofollow" href="http://kinokoru.jp/archives/1548">Character-level Convolutional Neural Networkについて調べてみた</a> appeared first on <a rel="nofollow" href="http://kinokoru.jp">きのこる庭</a>.</p>
]]></description>
				<content:encoded><![CDATA[<h2>元論文</h2>
<p><a href="https://arxiv.org/abs/1509.01626" target="_blank">Character-level Convolutional Networks for Text Classification ( arxiv )</a></p>
<h2>概要</h2>
<p>One-Hot表現に変換した入力値をEmbeddingした後、6層のConvolution(+Max Pooling)→平滑化して3層からなる全結合層(出力層は問題に応じて適宜変える)という流れ。<br />
カーネル数やパラメータ数は論文中に記載されているので割愛。<br />
<span id="more-1548"></span></p>
<h2>特徴</h2>
<p>ざっくり論文を読んでみた所、以下のような感じであることがわかった。</p>
<p>・ <strong>データセットが大きい( 1000000以上 )場合に有効</strong>。データセットが小さい場合は、やはり古典的ながらn-gram+TFIDFが全般的に良い精度を出している。<br />
・ アルファベットの大文字・小文字の区別に関しては、<strong>大きなデータセットでは区別しない方が良い結果だが、小さなデータセットに関しては区別した方が良い結果となる</strong>( 厳密に検証はされていないものの、正則化の役割を果たすのではないかという仮説が立てられている )<br />
・ 問題ごとで精度の差異は無い模様。</p>
<p>特に面白かったのが以下の特徴。</p>
<p>・character-level ConvNets work better for less curated user-generated texts.<br />
つまり、<strong>形の整った綺麗なテキストではなく、日頃ユーザが書いているような雑な文章に特に強い</strong>模様。確かに 単語単位ではなく文字単位で学習するので、表記揺れやよくあるtypo、はたまた単語辞書では拾いきれないような特有の表現とかに強そうな感じはする。使い道によってはチャットボットとも相性が良さそうな気がした。</p>
<h2>応用</h2>
<p><a href="https://github.com/mhjabreel/CharCnn_Keras" target="_blank">CharCnn_Keras (Github)</a><br />
KerasによるCharacter-level CNNの実装。</p>
<p><a href="https://www.slideshare.net/palloc/character-level-convolutional-neural-network" target="_blank">Character Level Convolutional Neural Networkによる悪性文字列検知手法 (SlideShare)</a><br />
フィルタつくるのにも便利そう。</p>
<p><a href="http://sssslide.com/speakerdeck.com/bokeneko/retty-tech-night-number-1-bokeneko" target="_blank">Retty Tech Night #1 bokeneko (SSSSLIDE)</a><br />
Character-level CNNに興味を持つきっかけになったスライド。キャッチコピーの自動生成がかなり面白いなーと思った。<br />
(文章の自動生成でよくWord2vec→RNNやLSTMあたりが挙げられるものの、こちらは結構壊滅的な文章が生成されてしまうケースが多い印象)</p>
<p>The post <a rel="nofollow" href="http://kinokoru.jp/archives/1548">Character-level Convolutional Neural Networkについて調べてみた</a> appeared first on <a rel="nofollow" href="http://kinokoru.jp">きのこる庭</a>.</p>
]]></content:encoded>
			<wfw:commentRss>http://kinokoru.jp/archives/1548/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
