با مجموعهها، منظم بمانید ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
هنگامی که دستیار Google را در پروژه خود اجرا کردید، این موارد را امتحان کنید:
نحوه تعامل پروژه خود با دستیار را سفارشی کنید . به عنوان مثال، هنگام پخش صدا، با فشار دادن یک دکمه دستیار را فعال کنید یا یک LED چشمک بزنید. حتی میتوانید رونوشت تشخیص گفتار را از «دستیار» روی نمایشگر نشان دهید.
پروژه خود را با دستورات سفارشی کنترل کنید . به عنوان مثال، از ماکت ساز مجهز به دستیار خود بخواهید نوشیدنی مورد علاقه شما را درست کند.
نحوه تعامل پروژه خود با دستیار را سفارشی کنید
دستیار را فعال کنید
با Google Assistant Service API، شما کنترل میکنید که چه زمانی درخواست دستیار را راهاندازی کنید. کد نمونه را برای کنترل آن تغییر دهید (مثلاً با فشار دادن یک دکمه). راه اندازی یک درخواست دستیار با ارسال یک درخواست به EmbeddedAssistant.Assist انجام می شود.
رونوشت درخواست کاربر را دریافت کنید
Google Assistant SDK رونوشت متنی درخواست کاربر را در اختیار شما قرار می دهد. از این برای ارائه بازخورد به کاربر با رندر کردن متن روی نمایشگر یا حتی برای کارهای خلاقانه تر مانند انجام برخی اقدامات محلی در دستگاه استفاده کنید.
Google Assistant SDK از ارائه پاسخ دستیار به نمایشگر در صورت پاسخهای بصری به درخواستهای خاص پشتیبانی میکند. به عنوان مثال، پرس و جو آب و هوا در Mountain View چیست؟ دمای فعلی، یک نمایش تصویری از آب و هوا و پیشنهاداتی برای جستجوهای مرتبط را ارائه می دهد. اگر این ویژگی فعال باشد، این داده HTML5 (در صورت وجود) در قسمت ScreenOut.data قرار دارد.
این را می توان در نمونه هایpushtotalk.py و textinput.py با پرچم خط فرمان --display فعال کرد. داده ها در یک پنجره مرورگر ارائه می شوند.
ارسال سوالات از طریق ورودی متن
اگر یک رابط متنی (به عنوان مثال، یک صفحه کلید) به دستگاه وصل شدهاید، قسمت text_query را در قسمت config تنظیم کنید (به AssistConfig مراجعه کنید). فیلد audio_in_config را تنظیم نکنید.
کد نمونه شامل فایل textinput.py است. شما می توانید این فایل را برای ارسال پرس و جو از طریق ورودی متن اجرا کنید.
ارسال پرس و جو از طریق ورودی فایل صوتی
کد نمونه شامل فایل audiofileinput.py است. شما می توانید این فایل را برای ارسال درخواست از طریق یک فایل صوتی اجرا کنید. نمونه یک فایل صوتی با پاسخ دستیار خروجی می دهد.
پروژه خود را با دستورات سفارشی کنترل کنید
می توانید دستورات سفارشی را به دستیار اضافه کنید که به شما امکان می دهد پروژه خود را از طریق صدا کنترل کنید.
در اینجا دو راه برای انجام این کار وجود دارد:
نمونه سرویس دستیار Google را گسترش دهید تا Device Actions را نیز در بر گیرد.
یک دستور IFTTT برای دستیار ایجاد کنید. سپس IFTTT را پیکربندی کنید تا یک درخواست HTTP سفارشی به نقطه پایانی که در پاسخ به دستور Assistant انتخاب میکنید، ارسال کند. برای انجام این کار، از اقدامات Maker IFTTT استفاده کنید.
تاریخ آخرین بهروزرسانی 2025-07-24 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2025-07-24 بهوقت ساعت هماهنگ جهانی."],[[["\u003cp\u003eCustomize interactions with the Google Assistant, such as triggering it with a button or displaying speech recognition transcripts.\u003c/p\u003e\n"],["\u003cp\u003eControl your projects using custom commands through Device Actions or IFTTT recipes.\u003c/p\u003e\n"],["\u003cp\u003eAccess the Assistant's response in various formats like text, HTML for visual responses, and audio.\u003c/p\u003e\n"],["\u003cp\u003eSubmit queries to the Assistant using either text input (like a keyboard) or audio files.\u003c/p\u003e\n"],["\u003cp\u003eUtilize the provided sample code and documentation to integrate these features into your projects.\u003c/p\u003e\n"]]],[],null,["# Next Steps\n\nOnce you have the Google Assistant running on your project, give these a try:\n\n1. [Customize](#custom-interaction) how your project interacts with the\n Assistant. For example, trigger the Assistant with the push of a button or\n blink an LED when playing back audio. You can even show a speech recognition\n transcript from the Assistant on a display.\n\n2. [Control](#device-control) your project with custom commands.\n For example, ask your Assistant-enabled [mocktail maker](http://deeplocal.com/mocktailsmixer/)\n to make your favorite drink.\n\nCustomize how your project interacts with the Assistant\n-------------------------------------------------------\n\n### Trigger the Assistant\n\nWith the Google Assistant Service API, you control when to trigger an Assistant\nrequest. Modify the [sample code](https://github.com/googlesamples/assistant-sdk-python/tree/master/google-assistant-sdk/googlesamples/assistant/grpc)\nto control this (for example, at the push of a button). Triggering\nan Assistant request is done by sending a request to [`EmbeddedAssistant.Assist`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#google.assistant.embedded.v1alpha2.EmbeddedAssistant.Assist).\n\n### Get the transcript of the user request\n\nThe Google Assistant SDK gives you a text transcript of the user request. Use\nthis to provide feedback to the user by rendering the text to a display, or even\nfor something more creative such as performing some local actions on the device.\n\nThis transcript is located in the [`SpeechRecognitionResult.transcript`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#speechrecognitionresult) field.\n\n### Get the text of the Assistant's response\n\nThe Google Assistant SDK gives you the plain text of the Assistant response. Use this\nto provide feedback to the user by rendering the text to a display.\n\nThis text is located in the [`DialogStateOut.supplemental_display_text`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#dialogstateout)\nfield.\n\n### Get the Assistant's visual response\n\nThe Google Assistant SDK supports rendering the Assistant response to a\ndisplay in the case of visual responses to certain queries. For example,\nthe query *What is the weather in Mountain View?* will render the current\ntemperature, a pictorial representation of the weather, and suggestions for\nrelated queries. This HTML5 data (if present) is located in the\n[`ScreenOut.data`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#screenout) field if this feature is [enabled](/assistant/sdk/guides/service/integrate#text-response).\n\nThis can be enabled in the `pushtotalk.py` and `textinput.py` [samples](https://github.com/googlesamples/assistant-sdk-python/tree/master/google-assistant-sdk/googlesamples/assistant/grpc)\nwith the `--display` command line flag. The data is rendered in a browser window.\n| **Note:** If you are sending commands over SSH to a Raspberry Pi with a connected display, make sure you run `export DISPLAY=:0` before running the sample with the `--display` command line flag.\n\n### Submitting queries via text input\n\nIf you have a text interface (for example, a keyboard) attached to the device,\nset the `text_query` field in the `config` field (see [`AssistConfig`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#assistconfig)).\nDo not set the `audio_in_config` field.\n\nThe [sample code](https://github.com/googlesamples/assistant-sdk-python/tree/master/google-assistant-sdk/googlesamples/assistant/grpc)\nincludes the file `textinput.py`. You can run this file to submit queries via\ntext input.\n\n### Submitting queries via audio file input\n\nThe [sample code](https://github.com/googlesamples/assistant-sdk-python/tree/master/google-assistant-sdk/googlesamples/assistant/grpc)\nincludes the file `audiofileinput.py`. You can run this file to submit a query\nvia an audio file. The sample outputs an audio file with the Assistant's response.\n\nControl your project with custom commands\n-----------------------------------------\n\nYou can add custom commands to the Assistant that allow you to control your\nproject via voice.\n\nHere are two ways to do this:\n\n- Extend the Google Assistant Service sample to include [Device Actions](/assistant/sdk/guides/service/python/extend/install-hardware).\n\n- Create an [IFTTT recipe](https://support.google.com/googlehome/answer/7194656)\n for the Assistant. Then configure IFTTT to make a custom HTTP request to an\n endpoint you choose in response to an Assistant command. To do so, use\n [Maker IFTTT actions](http://maker.ifttt.com)."]]