PHPでwebサイトクロールに挑戦 #2「HTMLの取得」

2015/05/27

PHP 特集

t f B! P L
#1 システム考案

webのクロール実践編です。

とりあえず、AJAXサイトの取得や、動的ページの対応などは、次回以降に考えるとして、静的ページのクロールとそこからのリンクページを再帰的にクロールしてみます。 今回取得するデータは、ページ内のリンク一覧を取得します。

基本構成

言語 : PHP

# クロールプログラム cli.php # ドメイン毎のデータリンクデータ格納フォルダ data/contents/domain/

ソースコード

<?php date_default_timezone_set('Asia/Tokyo'); //CLIの場合argvをREQUESTに変換する。 if(!isset($_SERVER['SCRIPT_URI']) && isset($argv)){ for($i=0,$c=count($argv);$i<$c;$i++){ if(!$argv[$i]){continue;} //各クエリの分解 $q = explode("=",$argv[$i]); if(count($q)<2){continue;} if($q[0]!=''){ //requestに格納 $key = $q[0]; $val = join("=",array_slice($q,1)); $_REQUEST[$key]=$val; } } } new CLI(); class CLI{ // リンクデータの保存フォルダ public $data_path = "data/contents/domain/"; // 再帰処理の最大回数 [0:再帰処理を行わない 1-n:リンクを辿る回数] public $max_reflexive = 1; // 起動時に実行 function __construct(){ // urlがhttpで始まっていない場合は、URLとみなさず処理を行わない if(!preg_match("@^http@",$_REQUEST['url'])){die("Error: ".$_REQUEST['url']);return;} // URLと催奇処理の開始番号"0" $this->getPage($_REQUEST['url'],0); } function getPage($url,$reflexive){ //URL情報の取得 $pageFormat = $this->checkFormat($url); if($pageFormat){return;} // path情報 $page_url_info = $this->getUrlInfo($url); // 取得日 $date = date("Ymd"); // 初回にデータフォルダを自動作成 if(!is_dir($this->data_path)){mkdir($this->data_path,0777,true);} // ページソースの取得 $source = file_get_contents($url); // Aリンクの一覧を取得 preg_match_all("@<a (.*?)href.*?=['|\"| *?](.*?)['|\"](.*?)>(.*?)</a>@i",$source,$href); // currentPage unset($res); exec("grep '".$date.",".$url.","."' ".$this->data_path.$page_url_info['domain'], $res); if(!count($res)){ // タイトルを取得 preg_match("@<title>(.*?)</title>@i",$source,$title); //データ書き込み $line = $date.",".$url.",".$this->checkTagImg($title[1],$page_url_info).","; file_put_contents($this->data_path.$page_url_info['domain'], $line."\n", FILE_APPEND); echo $line."\n"; } // リンク一覧別の処理 for($i=0;$i<count($href[2]);$i++){ //リンク情報の取得 $link = $this->getLink($href[2][$i],$page_url_info); if(!$link){continue;} $format = $this->checkFormat($link); $info = $this->getUrlInfo($link); // ファイルの場合は、再帰処理を行わない[1:ymd , 2:url , 3:pdf] if($format){ $line = $date.",".$url.",".$this->checkTagImg($href[4][$i],$page_url_info).",".$link.","; file_put_contents($this->data_path.$info['domain'], $line."\n", FILE_APPEND); echo $line."\n"; continue; } // すでに登録済みのURLは処理を行わない unset($res); exec("grep '".$date.",".$link.","."' ".$this->data_path.$info['domain'], $res); if(count($res)>0){continue;} // リンク先がページの場合は再帰処理を行う $line = $date.",".$link.",".$this->checkTagImg($href[4][$i],$page_url_info).","; // データ書き込み file_put_contents($this->data_path.$info['domain'], $line."\n", FILE_APPEND); echo $line."\n"; //再帰処理 if($reflexive < $this->max_reflexive && $info['domain']==$page_url_info['domain']){ $this->getPage($link, $reflexive+1); } } } // URL情報の取得 function getUrlInfo($url=null){ //query $url_sp = explode("?",$url); if(!isset($url_sp[1])){$url_sp[1]="";} $query = $url_sp[1]; //protocol $protocol = $this->getProtocol($url_sp[0]); //domain $domain = $this->getDomain($url_sp[0]); //path $path_sp = explode("/",dirname($url)); $path = join("/",array_slice($path_sp,3,count($path_sp))); //url if($domain){ $uri = $url; } else{ $uri = $protocol."://".$domain."/".$url; } // dir階層の取得 parse_str($url_sp[1],$query_data); $dirname = dirname($url_sp[0].PHP_EOL); if($dirname && !preg_match("@\/$@",$dirname)){ $dirname .= "/"; } // 返り値データ return array( "uri"=>$uri, "url"=>$url_sp[0], "query"=>$url_sp[1], "quary_data"=>$query_data, "protocol"=>$protocol, "domain"=>$domain, "path"=>$path, "dirname"=>$dirname, "basename"=>basename($url_sp[0].PHP_EOL), "pathinfo"=>pathinfo($url_sp[0].PHP_EOL), "encode"=>urlencode($uri) ); } // Protocol情報の取得[http or https] function getProtocol($url=null){ if(preg_match("@^https://@",$url)){ return "https"; } else{ return "http"; } } // Domain情報の取得 function getDomain($url=null){ if(!$url){return;} // full-path if(preg_match("@^http.*?://@",$url)){ $sp = explode("/",$url); return $sp[2]; } } // ^https:// | http:// function checkScheme($url){ if(preg_match("@^https://@",$url)){ return true; } else if(preg_match("@^http://@",$url)){ return true; } else{ return false; } } // a/b.html -> http://exp.com/a/b.html function setUrl($url,$page_url_info){ if(preg_match("@^\.@",$url)){ return $this->setAbsolute($url,$page_url_info); } else if(preg_match("@^javascript@i",$url)){ return ""; } else if(preg_match("@^\/@i",$url)){ return $page_url_info['protocol']."://".$page_url_info['domain'].$url; } else{ return $page_url_info['dirname'].$url; } } // 相対PATHを絶対PATHに変換 function setAbsolute($url,$page_url_info){ $sp1 = explode("/",$url); $sp2 = explode("/",$page_url_info['dirname']); if(preg_match("@\/$@",$page_url_info['dirname'])){ $sp2 = array_slice($sp2, 0, count($sp2)-1); } for($i=0;$i<count($sp1);$i++){ if($sp1[$i]==".."){ if(count($sp2)<=3){continue;} $sp2 = array_slice($sp2, 0, count($sp2)-1); } else if($sp1[$i]=="."){ } else{ array_push($sp2,$sp1[$i]); } } return join("/",$sp2); } // Aリンクのhref情報をURIに変換する function getLink($url,$page_url_info){ if($this->checkScheme($url)){ return $url; } else{ return $this->setUrl($url,$page_url_info); } } // リンク先がファイルかどうかを確認する function checkFormat($url){ if(preg_match("@\.pdf$@i",$url)){ return "pdf"; } else if(preg_match("@\.gif$@i",$url)){ return "gif"; } else if(preg_match("@\.[jpg|jpeg]$@i",$url)){ return "jpg"; } else if(preg_match("@\.png$@i",$url)){ return "png"; } else if(preg_match("@\.avi$@i",$url)){ return "avi"; } else if(preg_match("@\.mp3$@i",$url)){ return "mp3"; } else if(preg_match("@\.bmp$@i",$url)){ return "bmp"; } } // innerHTMLがimgタグのみの場合はsrc情報だけ抜き出す function checkTagImg($str,$page_url_info){ preg_match("@^<img .*?src.*?=['|\"| *?](.*?)['|\"].*?>$@i",$str,$img); if(count($img)){ return $this->setAbsolute($img[1],$page_url_info); } else{ return $str; } } }

実行

$ php cli.php url=http://yahoo.co.jp/ データフォルダ内にドメインのファイルができて、リンクが一式格納されます。 次回に内容を少し解説したいと思います。

人気の投稿

このブログを検索

ごあいさつ

このWebサイトは、独自思考で我が道を行くユゲタの少し尖った思考のTechブログです。 毎日興味がどんどん切り替わるので、テーマはマルチになっています。 もしかしたらアイデアに困っている人の助けになるかもしれません。

ブログ アーカイブ