單項選擇題
Robots.txt文件是搜索引擎抓取網(wǎng)站第一個需要查看的文件,網(wǎng)站通過Robots協(xié)議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。在www.domain.com中,如禁止所有搜索引擎程序抓取www.domain.com/A下所有內(nèi)容,Robots文件應(yīng)如何設(shè)置?()
A."User-agent:*Disallow:/A"
B."User-agent:Allow:/A"
C."User-agent:Disallow:/"
D."User-agent:*Allow:/"