קל לארגן דפים בעזרת אוספים אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
אחרי ש-Google Assistant פועלת בפרויקט, אפשר לנסות את הפעולות הבאות:
להתאים אישית את האינטראקציה של הפרויקט עם Assistant. לדוגמה, אפשר להפעיל את Assistant בלחיצה על לחצן או להבהב נורית LED כשמפעילים אודיו. אפשר אפילו להציג תמליל של זיהוי דיבור מה-Assistant במסך.
שליטה בפרויקט באמצעות פקודות בהתאמה אישית. לדוגמה, תוכלו לבקש ממכונת הקוקטיילים עם Assistant מובנית להכין את המשקה האהוב עליכם.
התאמה אישית של האינטראקציה בין הפרויקט לבין Assistant
הפעלת Assistant
בעזרת Google Assistant Service API אפשר לקבוע מתי להפעיל בקשה של Assistant. משנים את הקוד לדוגמה כדי לשלוט בכך (למשל בלחיצת כפתור). כדי להפעיל בקשה מ-Assistant, נשלחת בקשה אל EmbeddedAssistant.Assist.
קבלת התמליל של הבקשה מהמשתמש
ב-Google Assistant SDK יש תמליל טקסט של בקשת המשתמש. אפשר להשתמש בו כדי לשלוח משוב למשתמש על ידי רינדור הטקסט במסך, או אפילו בשביל יצירה יצירתית יותר, כמו ביצוע פעולות מקומיות במכשיר.
ב-Google Assistant SDK יש תמיכה ברינדור התגובה של Assistant לתצוגה, במקרה של תגובות חזותיות לשאילתות מסוימות. לדוגמה, השאילתה What is the weather in Mountain View? תציג את הטמפרטורה הנוכחית, ייצוג גרפי של מזג האוויר והצעות לשאילתות קשורות. נתוני HTML5 האלה (אם קיימים) ממוקמים בשדה ScreenOut.data אם התכונה הזו מופעלת.
אפשר להפעיל את ההגדרה הזו בדוגמאותpushtotalk.py ו-textinput.py באמצעות התכונה הניסיונית --display בשורת הפקודה. הנתונים מעובדים בחלון דפדפן.
שליחת שאילתות באמצעות קלט טקסט
אם למכשיר מצורף ממשק טקסט (למשל מקלדת), צריך להגדיר את השדה text_query בשדה config (מידע נוסף ב-AssistConfig). אין להגדיר את השדה audio_in_config.
הקוד לדוגמה כולל את הקובץ textinput.py. אפשר להריץ את הקובץ הזה כדי לשלוח שאילתות באמצעות קלט טקסט.
שליחת שאילתות באמצעות קלט של קובץ אודיו
הקוד לדוגמה כולל את הקובץ audiofileinput.py. ניתן להריץ את הקובץ הזה כדי לשלוח שאילתה באמצעות קובץ אודיו. הפלט של הדוגמה הוא קובץ אודיו עם התשובה של Assistant.
שליטה בפרויקט באמצעות פקודות מותאמות אישית
אפשר להוסיף ל-Assistant פקודות מותאמות אישית שמאפשרות לשלוט בפרויקט באמצעות הקול.
הנה שתי דרכים לעשות זאת:
להרחיב את הדגימה של שירות Google Assistant כך שתכלול פעולות במכשיר.
יוצרים מתכון של IFTTT ל-Assistant. לאחר מכן מגדירים את IFTTT כדי ליצור בקשת HTTP מותאמת אישית לנקודת קצה שבחרתם בתגובה לפקודה של Assistant. כדי לעשות זאת, משתמשים בפעולות של Maker IFTTT.
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2025-07-26 (שעון UTC)."],[[["\u003cp\u003eCustomize interactions with the Google Assistant, such as triggering it with a button or displaying speech recognition transcripts.\u003c/p\u003e\n"],["\u003cp\u003eControl your projects using custom commands through Device Actions or IFTTT recipes.\u003c/p\u003e\n"],["\u003cp\u003eAccess the Assistant's response in various formats like text, HTML for visual responses, and audio.\u003c/p\u003e\n"],["\u003cp\u003eSubmit queries to the Assistant using either text input (like a keyboard) or audio files.\u003c/p\u003e\n"],["\u003cp\u003eUtilize the provided sample code and documentation to integrate these features into your projects.\u003c/p\u003e\n"]]],[],null,["Once you have the Google Assistant running on your project, give these a try:\n\n1. [Customize](#custom-interaction) how your project interacts with the\n Assistant. For example, trigger the Assistant with the push of a button or\n blink an LED when playing back audio. You can even show a speech recognition\n transcript from the Assistant on a display.\n\n2. [Control](#device-control) your project with custom commands.\n For example, ask your Assistant-enabled [mocktail maker](http://deeplocal.com/mocktailsmixer/)\n to make your favorite drink.\n\nCustomize how your project interacts with the Assistant\n\nTrigger the Assistant\n\nWith the Google Assistant Service API, you control when to trigger an Assistant\nrequest. Modify the [sample code](https://github.com/googlesamples/assistant-sdk-python/tree/master/google-assistant-sdk/googlesamples/assistant/grpc)\nto control this (for example, at the push of a button). Triggering\nan Assistant request is done by sending a request to [`EmbeddedAssistant.Assist`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#google.assistant.embedded.v1alpha2.EmbeddedAssistant.Assist).\n\nGet the transcript of the user request\n\nThe Google Assistant SDK gives you a text transcript of the user request. Use\nthis to provide feedback to the user by rendering the text to a display, or even\nfor something more creative such as performing some local actions on the device.\n\nThis transcript is located in the [`SpeechRecognitionResult.transcript`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#speechrecognitionresult) field.\n\nGet the text of the Assistant's response\n\nThe Google Assistant SDK gives you the plain text of the Assistant response. Use this\nto provide feedback to the user by rendering the text to a display.\n\nThis text is located in the [`DialogStateOut.supplemental_display_text`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#dialogstateout)\nfield.\n\nGet the Assistant's visual response\n\nThe Google Assistant SDK supports rendering the Assistant response to a\ndisplay in the case of visual responses to certain queries. For example,\nthe query *What is the weather in Mountain View?* will render the current\ntemperature, a pictorial representation of the weather, and suggestions for\nrelated queries. This HTML5 data (if present) is located in the\n[`ScreenOut.data`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#screenout) field if this feature is [enabled](/assistant/sdk/guides/service/integrate#text-response).\n\nThis can be enabled in the `pushtotalk.py` and `textinput.py` [samples](https://github.com/googlesamples/assistant-sdk-python/tree/master/google-assistant-sdk/googlesamples/assistant/grpc)\nwith the `--display` command line flag. The data is rendered in a browser window.\n| **Note:** If you are sending commands over SSH to a Raspberry Pi with a connected display, make sure you run `export DISPLAY=:0` before running the sample with the `--display` command line flag.\n\nSubmitting queries via text input\n\nIf you have a text interface (for example, a keyboard) attached to the device,\nset the `text_query` field in the `config` field (see [`AssistConfig`](/assistant/sdk/reference/rpc/google.assistant.embedded.v1alpha2#assistconfig)).\nDo not set the `audio_in_config` field.\n\nThe [sample code](https://github.com/googlesamples/assistant-sdk-python/tree/master/google-assistant-sdk/googlesamples/assistant/grpc)\nincludes the file `textinput.py`. You can run this file to submit queries via\ntext input.\n\nSubmitting queries via audio file input\n\nThe [sample code](https://github.com/googlesamples/assistant-sdk-python/tree/master/google-assistant-sdk/googlesamples/assistant/grpc)\nincludes the file `audiofileinput.py`. You can run this file to submit a query\nvia an audio file. The sample outputs an audio file with the Assistant's response.\n\nControl your project with custom commands\n\nYou can add custom commands to the Assistant that allow you to control your\nproject via voice.\n\nHere are two ways to do this:\n\n- Extend the Google Assistant Service sample to include [Device Actions](/assistant/sdk/guides/service/python/extend/install-hardware).\n\n- Create an [IFTTT recipe](https://support.google.com/googlehome/answer/7194656)\n for the Assistant. Then configure IFTTT to make a custom HTTP request to an\n endpoint you choose in response to an Assistant command. To do so, use\n [Maker IFTTT actions](http://maker.ifttt.com)."]]