تنظيم صفحاتك في مجموعات يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
المتطلبات الفنية لمحرّك بحث Google
لا تترتّب أي تكلفة على عرض صفحتك في نتائج البحث، بغض النظر عما يخبرك به الآخرون. إذا كانت صفحتك تستوفي الحدّ الأدنى من المتطلبات الفنية، يمكن لمحرّك بحث Google أن يفهرسها:
لم يتم حظر Googlebot من الوصول إلى الصفحة.
الصفحة صالحة ومتاحة، أي أنّ محرّك بحث Google يتلقّى رمز حالة HTTP 200 (success).
تحتوي الصفحة على محتوى قابل للفهرسة.
لم يتم حظر Googlebot من الوصول إلى الصفحة (يمكنه العثور على الصفحة والوصول إليها)
لا يفهرس محرّك بحث Google سوى صفحات الويب التي يمكن للجميع الوصول إليها والتي لا تحظر الزاحف Googlebot من الزحف إليها. إذا تم تحويل الصفحة إلى خاصة، مثل أن تتطلب تسجيل الدخول لعرضها، لن يزحف إليها Googlebot. وبالمثل، إذا تم استخدام إحدى الآليات المتعددة لحظر Google من الفهرسة، لن تتم فهرسة الصفحة.
التأكّد مما إذا كان بإمكان Googlebot العثور على صفحتك والوصول إليها
من المستبعد أن تظهر الصفحات التي تم حظرها باستخدام ملف robots.txt في نتائج "بحث Google". للاطّلاع على قائمة بالصفحات التي يتعذّر على محرّك بحث Google الوصول إليها (ولكن تريد عرضها في نتائج "بحث Google")، استخدِم كلاً من تقرير "فهرسة الصفحات" وتقرير إحصاءات الزحف المتوفّرَين في Search Console. قد يتضمن كل تقرير معلومات مختلفة حول عناوين URL الخاصة بك، لذا ننصحك بإلقاء نظرة على التقريرَين.
لا يفهرس محرّك بحث Google سوى الصفحات التي يتم عرضها باستخدام رمز حالة HTTP 200 (success). ولا تتم فهرسة صفحات أخطاء العميل والخادم. يمكنك التأكّد من رمز حالة HTTP لصفحة معيّنة باستخدام أداة فحص عنوان URL.
محتوى الصفحة قابل للفهرسة
بعد أن يتمكن Googlebot من العثور على صفحة صالحة والوصول إليها، يفحص محرّك بحث Google الصفحة بحثًا عن محتوى قابل للفهرسة. المحتوى القابل للفهرسة هو:
تاريخ التعديل الأخير: 2025-08-04 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-08-04 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eGetting your webpage into Google Search results is free, provided it meets the basic technical requirements.\u003c/p\u003e\n"],["\u003cp\u003eFor a webpage to be indexed by Google, it must be publicly accessible, crawlable by Googlebot, and return an HTTP 200 (success) status code.\u003c/p\u003e\n"],["\u003cp\u003eThe webpage should also contain indexable content in a supported file type and adhere to Google's spam policies, though indexing isn't guaranteed.\u003c/p\u003e\n"],["\u003cp\u003eGoogle Search Console provides tools like the Page Indexing report, Crawl Stats report, and URL Inspection tool to help you assess and troubleshoot indexing issues.\u003c/p\u003e\n"]]],["To be eligible for Google Search indexing, a page must meet these technical requirements: Googlebot must not be blocked from accessing it, the page must function correctly with an HTTP 200 (success) status code, and it must contain indexable content. Blocking Googlebot prevents crawling, while utilizing a `noindex` tag prevents indexing, allowing crawling. The Page Indexing and Crawl Stats reports in Search Console, as well as the URL Inspection tool, can check page status.\n"],null,["Google Search technical requirements\n\n\nIt costs nothing to get your page in search results, no matter what anyone tries to tell you.\nAs long as your page meets the minimum technical requirements, it's eligible to be\nindexed by Google Search:\n\n1. Googlebot isn't blocked.\n2. The page works, meaning that Google receives an HTTP `200 (success)` status code.\n3. The page has indexable content.\n\n| Just because a page meets these requirements doesn't mean that a page will be indexed; indexing isn't guaranteed.\n\nGooglebot isn't blocked (it can find and access the page)\n\n\nGoogle only indexes pages on the web that are accessible to the public and which don't\nblock our crawler, [Googlebot](/search/docs/crawling-indexing/googlebot),\nfrom crawling them. If a page is made private, such as requiring a log-in to view it,\nGooglebot will not crawl it. Similarly, if one of the\n[several mechanisms](/search/docs/crawling-indexing/control-what-you-share) are\nused to block Google from indexing, the page will not be indexed.\n\nCheck if Googlebot can find and access your page\n\n\nPages that are blocked by [robots.txt](/search/docs/crawling-indexing/robots/intro)\nare unlikely to show in Google Search results. To see a list of pages that are inaccessible to\nGoogle (but that you would like to see in Search results), use both the\n[Page Indexing report](https://support.google.com/webmasters/answer/7440203)\nand [Crawl Stats report](https://support.google.com/webmasters/answer/9679690)\nin Search Console. Each report may contain different information about your URLs, so it's a good idea to look at both reports.\n\n\nTo test a specific page, use the [URL Inspection tool](https://support.google.com/webmasters/answer/9012289).\n\nThe page works (it's not an error page)\n\n\nGoogle only indexes pages that are served with an\n[HTTP `200 (success)` status code](/search/docs/crawling-indexing/http-network-errors#2xx-success).\nClient and server error pages aren't indexed. You can check the HTTP status code for a given\npage with the [URL Inspection tool](https://support.google.com/webmasters/answer/9012289).\n\nThe page has indexable content\n\n\nOnce Googlebot can find and access a working page, Google checks the page for indexable\ncontent. Indexable content means:\n\n- The textual content is in a [file type that Google Search supports](/search/docs/crawling-indexing/indexable-file-types).\n- The content doesn't violate our [spam policies](/search/docs/essentials/spam-policies).\n\n| While blocking Googlebot with a robots.txt file will prevent crawling, a page's URL might still appear in search results. To instruct Google not to index a page, use [`noindex`](/search/docs/crawling-indexing/block-indexing) and allow Google to crawl the URL."]]