通过站点地图或谷歌搜索控制台进行页面索引有问题吗?

问题描述 投票:0回答:1

我创建了页面来获取目录中的反向链接 (p)。
我已经根据下面的代码在robots.txt和sitemap.xml中提到了它,但3个月后它们仍然没有被Google索引:

机器人.txt:

User-agent: *
Disallow: /dir1
Disallow: /dir2
Disallow: /dir3
Disallow: /dir4

Sitemap: https://example.com/sitemap.xml

sitemap.xml:

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
        <url>
            <loc>https://example.com/</loc>
            <lastmod>2024-12-01</lastmod>
            <priority>1.0</priority>
        </url>
        <url>
            <loc>https://example.com/p/</loc>
            <lastmod>2024-12-01</lastmod>
            <priority>0.8</priority>
        </url>
    </urlset>

但如果我通过 Search Console 请求将某个网址编入索引,它将在不到一周的时间内编入索引。我这里有一个问题,我不明白站点地图有什么问题(我也将站点地图引入了Search Console)。我应该在站点地图中写入所有 3,000 个 URL,而不是在站点地图中写入目录吗:
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
        <url>
            <loc>https://example.com/</loc>
            <lastmod>2024-12-01</lastmod>
            <priority>1.0</priority>
        </url>
        <url>
            <loc>https://example.com/p/page1.html</loc>
            <lastmod>2024-12-01</lastmod>
            <priority>0.8</priority>
        </url>
        <url>
            <loc>https://example.com/p/page2.html</loc>
            <lastmod>2024-12-01</lastmod>
            <priority>0.8</priority>
        </url>

        .
        .
        .

    </urlset>

或者我是否应该在 Search Console 中一一请求这 3,000 个网址(有没有办法可以在 Search Console 中一次请求所有这 3,000 个网址)?

感谢您的帮助,谢谢。

xml sitemap txt google-search-console robot
1个回答
0
投票

XML 站点地图应包含所有有价值的、可索引的 URL,而不仅仅是顶级子目录 URL:https://developers.google.com/search/docs/crawling-indexing/sitemaps/build-sitemap

但是,搜索引擎不必对您的内容建立索引;如果他们认为它质量低,那么他们很可能不会将其编入索引。

© www.soinside.com 2019 - 2024. All rights reserved.