From b4aad4d9de76512e771a770a1c743b43970a6a08 Mon Sep 17 00:00:00 2001 From: KoljaB Date: Tue, 29 Oct 2024 17:26:56 +0100 Subject: [PATCH] Deployed d1ccaa6 with MkDocs version: 1.6.1 --- 404.html | 1125 ++++- ar/api/index.html | 2359 +++++++++++ ar/contributing/index.html | 1853 +++++++++ ar/faq/index.html | 1837 ++++++++ ar/index.html | 1867 +++++++++ ar/installation/index.html | 2094 ++++++++++ ar/usage/index.html | 2035 +++++++++ de/api/index.html | 2777 +++++++++++++ de/ar/api/index.html | 2359 +++++++++++ de/ar/contributing/index.html | 1853 +++++++++ de/ar/faq/index.html | 1837 ++++++++ de/ar/index.html | 1867 +++++++++ de/ar/installation/index.html | 2094 ++++++++++ de/ar/usage/index.html | 2035 +++++++++ de/contributing/index.html | 1874 +++++++++ de/de/api/index.html | 2777 +++++++++++++ de/de/contributing/index.html | 1874 +++++++++ de/de/faq/index.html | 1858 +++++++++ de/de/index.html | 1864 +++++++++ de/de/installation/index.html | 2252 ++++++++++ de/de/usage/index.html | 2147 ++++++++++ de/en/api/index.html | 2803 +++++++++++++ de/en/contributing/index.html | 1874 +++++++++ de/en/faq/index.html | 1858 +++++++++ de/en/index.html | 1934 +++++++++ de/en/installation/index.html | 2252 ++++++++++ de/en/usage/index.html | 2147 ++++++++++ de/es/api/index.html | 2922 +++++++++++++ de/es/contributing/index.html | 1874 +++++++++ de/es/faq/index.html | 1858 +++++++++ de/es/index.html | 1936 +++++++++ de/es/installation/index.html | 2243 ++++++++++ de/es/usage/index.html | 2147 ++++++++++ de/faq/index.html | 1858 +++++++++ de/fr/api/index.html | 2839 +++++++++++++ de/fr/contributing/index.html | 1874 +++++++++ de/fr/faq/index.html | 1858 +++++++++ de/fr/index.html | 1936 +++++++++ de/fr/installation/index.html | 2270 ++++++++++ de/fr/usage/index.html | 2146 ++++++++++ de/hi/api/index.html | 2803 +++++++++++++ de/hi/contributing/index.html | 1874 +++++++++ de/hi/faq/index.html | 1858 +++++++++ de/hi/index.html | 1936 +++++++++ de/hi/installation/index.html | 2216 ++++++++++ de/hi/usage/index.html | 2147 ++++++++++ de/index.html | 1864 +++++++++ de/installation/index.html | 2252 ++++++++++ de/it/api/index.html | 2803 +++++++++++++ de/it/contributing/index.html | 1874 +++++++++ de/it/faq/index.html | 1858 +++++++++ de/it/index.html | 1936 +++++++++ de/it/installation/index.html | 2252 ++++++++++ de/it/usage/index.html | 2147 ++++++++++ de/ja/api/index.html | 2814 +++++++++++++ de/ja/contributing/index.html | 1874 +++++++++ de/ja/faq/index.html | 1858 +++++++++ de/ja/index.html | 1936 +++++++++ de/ja/installation/index.html | 2155 ++++++++++ de/ja/usage/index.html | 2148 ++++++++++ de/ko/api/index.html | 2792 +++++++++++++ de/ko/contributing/index.html | 1874 +++++++++ de/ko/faq/index.html | 1856 +++++++++ de/ko/index.html | 1936 +++++++++ de/ko/installation/index.html | 2267 ++++++++++ de/ko/usage/index.html | 2148 ++++++++++ de/usage/index.html | 2147 ++++++++++ de/zh/api/index.html | 2791 +++++++++++++ de/zh/contributing/index.html | 1874 +++++++++ de/zh/faq/index.html | 1858 +++++++++ de/zh/index.html | 1937 +++++++++ de/zh/installation/index.html | 2274 ++++++++++ de/zh/usage/index.html | 2149 ++++++++++ en/api/index.html | 981 ++++- en/contributing/index.html | 1061 ++++- en/faq/index.html | 1067 ++++- en/index.html | 1141 ++++- en/installation/index.html | 939 ++++- en/usage/index.html | 1257 ++++-- es/api/index.html | 983 ++++- es/ar/api/index.html | 2359 +++++++++++ es/ar/contributing/index.html | 1853 +++++++++ es/ar/faq/index.html | 1837 ++++++++ es/ar/index.html | 1867 +++++++++ es/ar/installation/index.html | 2094 ++++++++++ es/ar/usage/index.html | 2035 +++++++++ es/contributing/index.html | 1061 ++++- es/de/api/index.html | 2777 +++++++++++++ es/de/contributing/index.html | 1874 +++++++++ es/de/faq/index.html | 1858 +++++++++ es/de/index.html | 1864 +++++++++ es/de/installation/index.html | 2252 ++++++++++ es/de/usage/index.html | 2147 ++++++++++ es/en/api/index.html | 981 ++++- es/en/contributing/index.html | 1061 ++++- es/en/faq/index.html | 1067 ++++- es/en/index.html | 1139 ++++- es/en/installation/index.html | 939 ++++- es/en/usage/index.html | 1257 ++++-- es/es/api/index.html | 983 ++++- es/es/contributing/index.html | 1061 ++++- es/es/faq/index.html | 1155 +++++- es/es/index.html | 1141 ++++- es/es/installation/index.html | 939 ++++- es/es/usage/index.html | 1257 ++++-- es/faq/index.html | 1155 +++++- es/fr/api/index.html | 981 ++++- es/fr/contributing/index.html | 1059 ++++- es/fr/faq/index.html | 1065 ++++- es/fr/index.html | 1139 ++++- es/fr/installation/index.html | 937 ++++- es/fr/usage/index.html | 1255 ++++-- es/hi/api/index.html | 2803 +++++++++++++ es/hi/contributing/index.html | 1874 +++++++++ es/hi/faq/index.html | 1858 +++++++++ es/hi/index.html | 1936 +++++++++ es/hi/installation/index.html | 2216 ++++++++++ es/hi/usage/index.html | 2147 ++++++++++ es/index.html | 1141 ++++- es/installation/index.html | 939 ++++- es/it/api/index.html | 2803 +++++++++++++ es/it/contributing/index.html | 1874 +++++++++ es/it/faq/index.html | 1858 +++++++++ es/it/index.html | 1936 +++++++++ es/it/installation/index.html | 2252 ++++++++++ es/it/usage/index.html | 2147 ++++++++++ es/ja/api/index.html | 2814 +++++++++++++ es/ja/contributing/index.html | 1874 +++++++++ es/ja/faq/index.html | 1858 +++++++++ es/ja/index.html | 1936 +++++++++ es/ja/installation/index.html | 2155 ++++++++++ es/ja/usage/index.html | 2148 ++++++++++ es/ko/api/index.html | 2792 +++++++++++++ es/ko/contributing/index.html | 1874 +++++++++ es/ko/faq/index.html | 1856 +++++++++ es/ko/index.html | 1936 +++++++++ es/ko/installation/index.html | 2267 ++++++++++ es/ko/usage/index.html | 2148 ++++++++++ es/usage/index.html | 1257 ++++-- es/zh/api/index.html | 2791 +++++++++++++ es/zh/contributing/index.html | 1874 +++++++++ es/zh/faq/index.html | 1858 +++++++++ es/zh/index.html | 1937 +++++++++ es/zh/installation/index.html | 2274 ++++++++++ es/zh/usage/index.html | 2149 ++++++++++ fr/api/index.html | 981 ++++- fr/ar/api/index.html | 2359 +++++++++++ fr/ar/contributing/index.html | 1853 +++++++++ fr/ar/faq/index.html | 1837 ++++++++ fr/ar/index.html | 1867 +++++++++ fr/ar/installation/index.html | 2094 ++++++++++ fr/ar/usage/index.html | 2035 +++++++++ fr/contributing/index.html | 1059 ++++- fr/de/api/index.html | 2777 +++++++++++++ fr/de/contributing/index.html | 1874 +++++++++ fr/de/faq/index.html | 1858 +++++++++ fr/de/index.html | 1864 +++++++++ fr/de/installation/index.html | 2252 ++++++++++ fr/de/usage/index.html | 2147 ++++++++++ fr/en/api/index.html | 981 ++++- fr/en/contributing/index.html | 1061 ++++- fr/en/faq/index.html | 1067 ++++- fr/en/index.html | 1139 ++++- fr/en/installation/index.html | 939 ++++- fr/en/usage/index.html | 1257 ++++-- fr/es/api/index.html | 983 ++++- fr/es/contributing/index.html | 1061 ++++- fr/es/faq/index.html | 1155 +++++- fr/es/index.html | 1141 ++++- fr/es/installation/index.html | 939 ++++- fr/es/usage/index.html | 1257 ++++-- fr/faq/index.html | 1065 ++++- fr/fr/api/index.html | 981 ++++- fr/fr/contributing/index.html | 1059 ++++- fr/fr/faq/index.html | 1065 ++++- fr/fr/index.html | 1139 ++++- fr/fr/installation/index.html | 937 ++++- fr/fr/usage/index.html | 1255 ++++-- fr/hi/api/index.html | 2803 +++++++++++++ fr/hi/contributing/index.html | 1874 +++++++++ fr/hi/faq/index.html | 1858 +++++++++ fr/hi/index.html | 1936 +++++++++ fr/hi/installation/index.html | 2216 ++++++++++ fr/hi/usage/index.html | 2147 ++++++++++ fr/index.html | 1139 ++++- fr/installation/index.html | 937 ++++- fr/it/api/index.html | 2803 +++++++++++++ fr/it/contributing/index.html | 1874 +++++++++ fr/it/faq/index.html | 1858 +++++++++ fr/it/index.html | 1936 +++++++++ fr/it/installation/index.html | 2252 ++++++++++ fr/it/usage/index.html | 2147 ++++++++++ fr/ja/api/index.html | 2814 +++++++++++++ fr/ja/contributing/index.html | 1874 +++++++++ fr/ja/faq/index.html | 1858 +++++++++ fr/ja/index.html | 1936 +++++++++ fr/ja/installation/index.html | 2155 ++++++++++ fr/ja/usage/index.html | 2148 ++++++++++ fr/ko/api/index.html | 2792 +++++++++++++ fr/ko/contributing/index.html | 1874 +++++++++ fr/ko/faq/index.html | 1856 +++++++++ fr/ko/index.html | 1936 +++++++++ fr/ko/installation/index.html | 2267 ++++++++++ fr/ko/usage/index.html | 2148 ++++++++++ fr/usage/index.html | 1255 ++++-- fr/zh/api/index.html | 2791 +++++++++++++ fr/zh/contributing/index.html | 1874 +++++++++ fr/zh/faq/index.html | 1858 +++++++++ fr/zh/index.html | 1937 +++++++++ fr/zh/installation/index.html | 2274 ++++++++++ fr/zh/usage/index.html | 2149 ++++++++++ hi/api/index.html | 2803 +++++++++++++ hi/ar/api/index.html | 2359 +++++++++++ hi/ar/contributing/index.html | 1853 +++++++++ hi/ar/faq/index.html | 1837 ++++++++ hi/ar/index.html | 1867 +++++++++ hi/ar/installation/index.html | 2094 ++++++++++ hi/ar/usage/index.html | 2035 +++++++++ hi/contributing/index.html | 1874 +++++++++ hi/de/api/index.html | 2777 +++++++++++++ hi/de/contributing/index.html | 1874 +++++++++ hi/de/faq/index.html | 1858 +++++++++ hi/de/index.html | 1864 +++++++++ hi/de/installation/index.html | 2252 ++++++++++ hi/de/usage/index.html | 2147 ++++++++++ hi/en/api/index.html | 2803 +++++++++++++ hi/en/contributing/index.html | 1874 +++++++++ hi/en/faq/index.html | 1858 +++++++++ hi/en/index.html | 1934 +++++++++ hi/en/installation/index.html | 2252 ++++++++++ hi/en/usage/index.html | 2147 ++++++++++ hi/es/api/index.html | 2922 +++++++++++++ hi/es/contributing/index.html | 1874 +++++++++ hi/es/faq/index.html | 1858 +++++++++ hi/es/index.html | 1936 +++++++++ hi/es/installation/index.html | 2243 ++++++++++ hi/es/usage/index.html | 2147 ++++++++++ hi/faq/index.html | 1858 +++++++++ hi/fr/api/index.html | 2839 +++++++++++++ hi/fr/contributing/index.html | 1874 +++++++++ hi/fr/faq/index.html | 1858 +++++++++ hi/fr/index.html | 1936 +++++++++ hi/fr/installation/index.html | 2270 ++++++++++ hi/fr/usage/index.html | 2146 ++++++++++ hi/hi/api/index.html | 2803 +++++++++++++ hi/hi/contributing/index.html | 1874 +++++++++ hi/hi/faq/index.html | 1858 +++++++++ hi/hi/index.html | 1936 +++++++++ hi/hi/installation/index.html | 2216 ++++++++++ hi/hi/usage/index.html | 2147 ++++++++++ hi/index.html | 1936 +++++++++ hi/installation/index.html | 2216 ++++++++++ hi/it/api/index.html | 2803 +++++++++++++ hi/it/contributing/index.html | 1874 +++++++++ hi/it/faq/index.html | 1858 +++++++++ hi/it/index.html | 1936 +++++++++ hi/it/installation/index.html | 2252 ++++++++++ hi/it/usage/index.html | 2147 ++++++++++ hi/ja/api/index.html | 2814 +++++++++++++ hi/ja/contributing/index.html | 1874 +++++++++ hi/ja/faq/index.html | 1858 +++++++++ hi/ja/index.html | 1936 +++++++++ hi/ja/installation/index.html | 2155 ++++++++++ hi/ja/usage/index.html | 2148 ++++++++++ hi/ko/api/index.html | 2792 +++++++++++++ hi/ko/contributing/index.html | 1874 +++++++++ hi/ko/faq/index.html | 1856 +++++++++ hi/ko/index.html | 1936 +++++++++ hi/ko/installation/index.html | 2267 ++++++++++ hi/ko/usage/index.html | 2148 ++++++++++ hi/usage/index.html | 2147 ++++++++++ hi/zh/api/index.html | 2791 +++++++++++++ hi/zh/contributing/index.html | 1874 +++++++++ hi/zh/faq/index.html | 1858 +++++++++ hi/zh/index.html | 1937 +++++++++ hi/zh/installation/index.html | 2274 ++++++++++ hi/zh/usage/index.html | 2149 ++++++++++ it/api/index.html | 2803 +++++++++++++ it/ar/api/index.html | 2359 +++++++++++ it/ar/contributing/index.html | 1853 +++++++++ it/ar/faq/index.html | 1837 ++++++++ it/ar/index.html | 1867 +++++++++ it/ar/installation/index.html | 2094 ++++++++++ it/ar/usage/index.html | 2035 +++++++++ it/contributing/index.html | 1874 +++++++++ it/de/api/index.html | 2777 +++++++++++++ it/de/contributing/index.html | 1874 +++++++++ it/de/faq/index.html | 1858 +++++++++ it/de/index.html | 1864 +++++++++ it/de/installation/index.html | 2252 ++++++++++ it/de/usage/index.html | 2147 ++++++++++ it/en/api/index.html | 2803 +++++++++++++ it/en/contributing/index.html | 1874 +++++++++ it/en/faq/index.html | 1858 +++++++++ it/en/index.html | 1934 +++++++++ it/en/installation/index.html | 2252 ++++++++++ it/en/usage/index.html | 2147 ++++++++++ it/es/api/index.html | 2922 +++++++++++++ it/es/contributing/index.html | 1874 +++++++++ it/es/faq/index.html | 1858 +++++++++ it/es/index.html | 1936 +++++++++ it/es/installation/index.html | 2243 ++++++++++ it/es/usage/index.html | 2147 ++++++++++ it/faq/index.html | 1858 +++++++++ it/fr/api/index.html | 2839 +++++++++++++ it/fr/contributing/index.html | 1874 +++++++++ it/fr/faq/index.html | 1858 +++++++++ it/fr/index.html | 1936 +++++++++ it/fr/installation/index.html | 2270 ++++++++++ it/fr/usage/index.html | 2146 ++++++++++ it/hi/api/index.html | 2803 +++++++++++++ it/hi/contributing/index.html | 1874 +++++++++ it/hi/faq/index.html | 1858 +++++++++ it/hi/index.html | 1936 +++++++++ it/hi/installation/index.html | 2216 ++++++++++ it/hi/usage/index.html | 2147 ++++++++++ it/index.html | 1936 +++++++++ it/installation/index.html | 2252 ++++++++++ it/it/api/index.html | 2803 +++++++++++++ it/it/contributing/index.html | 1874 +++++++++ it/it/faq/index.html | 1858 +++++++++ it/it/index.html | 1936 +++++++++ it/it/installation/index.html | 2252 ++++++++++ it/it/usage/index.html | 2147 ++++++++++ it/ja/api/index.html | 2814 +++++++++++++ it/ja/contributing/index.html | 1874 +++++++++ it/ja/faq/index.html | 1858 +++++++++ it/ja/index.html | 1936 +++++++++ it/ja/installation/index.html | 2155 ++++++++++ it/ja/usage/index.html | 2148 ++++++++++ it/ko/api/index.html | 2792 +++++++++++++ it/ko/contributing/index.html | 1874 +++++++++ it/ko/faq/index.html | 1856 +++++++++ it/ko/index.html | 1936 +++++++++ it/ko/installation/index.html | 2267 ++++++++++ it/ko/usage/index.html | 2148 ++++++++++ it/usage/index.html | 2147 ++++++++++ it/zh/api/index.html | 2791 +++++++++++++ it/zh/contributing/index.html | 1874 +++++++++ it/zh/faq/index.html | 1858 +++++++++ it/zh/index.html | 1937 +++++++++ it/zh/installation/index.html | 2274 ++++++++++ it/zh/usage/index.html | 2149 ++++++++++ ja/api/index.html | 2814 +++++++++++++ ja/ar/api/index.html | 2359 +++++++++++ ja/ar/contributing/index.html | 1853 +++++++++ ja/ar/faq/index.html | 1837 ++++++++ ja/ar/index.html | 1867 +++++++++ ja/ar/installation/index.html | 2094 ++++++++++ ja/ar/usage/index.html | 2035 +++++++++ ja/contributing/index.html | 1874 +++++++++ ja/de/api/index.html | 2777 +++++++++++++ ja/de/contributing/index.html | 1874 +++++++++ ja/de/faq/index.html | 1858 +++++++++ ja/de/index.html | 1864 +++++++++ ja/de/installation/index.html | 2252 ++++++++++ ja/de/usage/index.html | 2147 ++++++++++ ja/en/api/index.html | 2803 +++++++++++++ ja/en/contributing/index.html | 1874 +++++++++ ja/en/faq/index.html | 1858 +++++++++ ja/en/index.html | 1934 +++++++++ ja/en/installation/index.html | 2252 ++++++++++ ja/en/usage/index.html | 2147 ++++++++++ ja/es/api/index.html | 2922 +++++++++++++ ja/es/contributing/index.html | 1874 +++++++++ ja/es/faq/index.html | 1858 +++++++++ ja/es/index.html | 1936 +++++++++ ja/es/installation/index.html | 2243 ++++++++++ ja/es/usage/index.html | 2147 ++++++++++ ja/faq/index.html | 1858 +++++++++ ja/fr/api/index.html | 2839 +++++++++++++ ja/fr/contributing/index.html | 1874 +++++++++ ja/fr/faq/index.html | 1858 +++++++++ ja/fr/index.html | 1936 +++++++++ ja/fr/installation/index.html | 2270 ++++++++++ ja/fr/usage/index.html | 2146 ++++++++++ ja/hi/api/index.html | 2803 +++++++++++++ ja/hi/contributing/index.html | 1874 +++++++++ ja/hi/faq/index.html | 1858 +++++++++ ja/hi/index.html | 1936 +++++++++ ja/hi/installation/index.html | 2216 ++++++++++ ja/hi/usage/index.html | 2147 ++++++++++ ja/index.html | 1936 +++++++++ ja/installation/index.html | 2155 ++++++++++ ja/it/api/index.html | 2803 +++++++++++++ ja/it/contributing/index.html | 1874 +++++++++ ja/it/faq/index.html | 1858 +++++++++ ja/it/index.html | 1936 +++++++++ ja/it/installation/index.html | 2252 ++++++++++ ja/it/usage/index.html | 2147 ++++++++++ ja/ja/api/index.html | 2814 +++++++++++++ ja/ja/contributing/index.html | 1874 +++++++++ ja/ja/faq/index.html | 1858 +++++++++ ja/ja/index.html | 1936 +++++++++ ja/ja/installation/index.html | 2155 ++++++++++ ja/ja/usage/index.html | 2148 ++++++++++ ja/ko/api/index.html | 2792 +++++++++++++ ja/ko/contributing/index.html | 1874 +++++++++ ja/ko/faq/index.html | 1856 +++++++++ ja/ko/index.html | 1936 +++++++++ ja/ko/installation/index.html | 2267 ++++++++++ ja/ko/usage/index.html | 2148 ++++++++++ ja/usage/index.html | 2148 ++++++++++ ja/zh/api/index.html | 2791 +++++++++++++ ja/zh/contributing/index.html | 1874 +++++++++ ja/zh/faq/index.html | 1858 +++++++++ ja/zh/index.html | 1937 +++++++++ ja/zh/installation/index.html | 2274 ++++++++++ ja/zh/usage/index.html | 2149 ++++++++++ ko/api/index.html | 2792 +++++++++++++ ko/ar/api/index.html | 2359 +++++++++++ ko/ar/contributing/index.html | 1853 +++++++++ ko/ar/faq/index.html | 1837 ++++++++ ko/ar/index.html | 1867 +++++++++ ko/ar/installation/index.html | 2094 ++++++++++ ko/ar/usage/index.html | 2035 +++++++++ ko/contributing/index.html | 1874 +++++++++ ko/de/api/index.html | 2777 +++++++++++++ ko/de/contributing/index.html | 1874 +++++++++ ko/de/faq/index.html | 1858 +++++++++ ko/de/index.html | 1864 +++++++++ ko/de/installation/index.html | 2252 ++++++++++ ko/de/usage/index.html | 2147 ++++++++++ ko/en/api/index.html | 2803 +++++++++++++ ko/en/contributing/index.html | 1874 +++++++++ ko/en/faq/index.html | 1858 +++++++++ ko/en/index.html | 1934 +++++++++ ko/en/installation/index.html | 2252 ++++++++++ ko/en/usage/index.html | 2147 ++++++++++ ko/es/api/index.html | 2922 +++++++++++++ ko/es/contributing/index.html | 1874 +++++++++ ko/es/faq/index.html | 1858 +++++++++ ko/es/index.html | 1936 +++++++++ ko/es/installation/index.html | 2243 ++++++++++ ko/es/usage/index.html | 2147 ++++++++++ ko/faq/index.html | 1856 +++++++++ ko/fr/api/index.html | 2839 +++++++++++++ ko/fr/contributing/index.html | 1874 +++++++++ ko/fr/faq/index.html | 1858 +++++++++ ko/fr/index.html | 1936 +++++++++ ko/fr/installation/index.html | 2270 ++++++++++ ko/fr/usage/index.html | 2146 ++++++++++ ko/hi/api/index.html | 2803 +++++++++++++ ko/hi/contributing/index.html | 1874 +++++++++ ko/hi/faq/index.html | 1858 +++++++++ ko/hi/index.html | 1936 +++++++++ ko/hi/installation/index.html | 2216 ++++++++++ ko/hi/usage/index.html | 2147 ++++++++++ ko/index.html | 1936 +++++++++ ko/installation/index.html | 2267 ++++++++++ ko/it/api/index.html | 2803 +++++++++++++ ko/it/contributing/index.html | 1874 +++++++++ ko/it/faq/index.html | 1858 +++++++++ ko/it/index.html | 1936 +++++++++ ko/it/installation/index.html | 2252 ++++++++++ ko/it/usage/index.html | 2147 ++++++++++ ko/ja/api/index.html | 2814 +++++++++++++ ko/ja/contributing/index.html | 1874 +++++++++ ko/ja/faq/index.html | 1858 +++++++++ ko/ja/index.html | 1936 +++++++++ ko/ja/installation/index.html | 2155 ++++++++++ ko/ja/usage/index.html | 2148 ++++++++++ ko/ko/api/index.html | 2792 +++++++++++++ ko/ko/contributing/index.html | 1874 +++++++++ ko/ko/faq/index.html | 1856 +++++++++ ko/ko/index.html | 1936 +++++++++ ko/ko/installation/index.html | 2267 ++++++++++ ko/ko/usage/index.html | 2148 ++++++++++ ko/usage/index.html | 2148 ++++++++++ ko/zh/api/index.html | 2791 +++++++++++++ ko/zh/contributing/index.html | 1874 +++++++++ ko/zh/faq/index.html | 1858 +++++++++ ko/zh/index.html | 1937 +++++++++ ko/zh/installation/index.html | 2274 ++++++++++ ko/zh/usage/index.html | 2149 ++++++++++ search/search_index.json | 1 - sitemap.xml | 7380 ++++++++++++++++++++++++++++++++- sitemap.xml.gz | Bin 947 -> 18001 bytes zh/api/index.html | 2791 +++++++++++++ zh/ar/api/index.html | 2359 +++++++++++ zh/ar/contributing/index.html | 1853 +++++++++ zh/ar/faq/index.html | 1837 ++++++++ zh/ar/index.html | 1867 +++++++++ zh/ar/installation/index.html | 2094 ++++++++++ zh/ar/usage/index.html | 2035 +++++++++ zh/contributing/index.html | 1874 +++++++++ zh/de/api/index.html | 2777 +++++++++++++ zh/de/contributing/index.html | 1874 +++++++++ zh/de/faq/index.html | 1858 +++++++++ zh/de/index.html | 1864 +++++++++ zh/de/installation/index.html | 2252 ++++++++++ zh/de/usage/index.html | 2147 ++++++++++ zh/en/api/index.html | 2803 +++++++++++++ zh/en/contributing/index.html | 1874 +++++++++ zh/en/faq/index.html | 1858 +++++++++ zh/en/index.html | 1934 +++++++++ zh/en/installation/index.html | 2252 ++++++++++ zh/en/usage/index.html | 2147 ++++++++++ zh/es/api/index.html | 2922 +++++++++++++ zh/es/contributing/index.html | 1874 +++++++++ zh/es/faq/index.html | 1858 +++++++++ zh/es/index.html | 1936 +++++++++ zh/es/installation/index.html | 2243 ++++++++++ zh/es/usage/index.html | 2147 ++++++++++ zh/faq/index.html | 1858 +++++++++ zh/fr/api/index.html | 2839 +++++++++++++ zh/fr/contributing/index.html | 1874 +++++++++ zh/fr/faq/index.html | 1858 +++++++++ zh/fr/index.html | 1936 +++++++++ zh/fr/installation/index.html | 2270 ++++++++++ zh/fr/usage/index.html | 2146 ++++++++++ zh/hi/api/index.html | 2803 +++++++++++++ zh/hi/contributing/index.html | 1874 +++++++++ zh/hi/faq/index.html | 1858 +++++++++ zh/hi/index.html | 1936 +++++++++ zh/hi/installation/index.html | 2216 ++++++++++ zh/hi/usage/index.html | 2147 ++++++++++ zh/index.html | 1937 +++++++++ zh/installation/index.html | 2274 ++++++++++ zh/it/api/index.html | 2803 +++++++++++++ zh/it/contributing/index.html | 1874 +++++++++ zh/it/faq/index.html | 1858 +++++++++ zh/it/index.html | 1936 +++++++++ zh/it/installation/index.html | 2252 ++++++++++ zh/it/usage/index.html | 2147 ++++++++++ zh/ja/api/index.html | 2814 +++++++++++++ zh/ja/contributing/index.html | 1874 +++++++++ zh/ja/faq/index.html | 1858 +++++++++ zh/ja/index.html | 1936 +++++++++ zh/ja/installation/index.html | 2155 ++++++++++ zh/ja/usage/index.html | 2148 ++++++++++ zh/ko/api/index.html | 2792 +++++++++++++ zh/ko/contributing/index.html | 1874 +++++++++ zh/ko/faq/index.html | 1856 +++++++++ zh/ko/index.html | 1936 +++++++++ zh/ko/installation/index.html | 2267 ++++++++++ zh/ko/usage/index.html | 2148 ++++++++++ zh/usage/index.html | 2149 ++++++++++ zh/zh/api/index.html | 2791 +++++++++++++ zh/zh/contributing/index.html | 1874 +++++++++ zh/zh/faq/index.html | 1858 +++++++++ zh/zh/index.html | 1937 +++++++++ zh/zh/installation/index.html | 2274 ++++++++++ zh/zh/usage/index.html | 2149 ++++++++++ 544 files changed, 1091891 insertions(+), 9049 deletions(-) create mode 100755 ar/api/index.html create mode 100755 ar/contributing/index.html create mode 100755 ar/faq/index.html create mode 100755 ar/index.html create mode 100755 ar/installation/index.html create mode 100755 ar/usage/index.html create mode 100755 de/api/index.html create mode 100755 de/ar/api/index.html create mode 100755 de/ar/contributing/index.html create mode 100755 de/ar/faq/index.html create mode 100755 de/ar/index.html create mode 100755 de/ar/installation/index.html create mode 100755 de/ar/usage/index.html create mode 100755 de/contributing/index.html create mode 100755 de/de/api/index.html create mode 100755 de/de/contributing/index.html create mode 100755 de/de/faq/index.html create mode 100755 de/de/index.html create mode 100755 de/de/installation/index.html create mode 100755 de/de/usage/index.html create mode 100755 de/en/api/index.html create mode 100755 de/en/contributing/index.html create mode 100755 de/en/faq/index.html create mode 100755 de/en/index.html create mode 100755 de/en/installation/index.html create mode 100755 de/en/usage/index.html create mode 100755 de/es/api/index.html create mode 100755 de/es/contributing/index.html create mode 100755 de/es/faq/index.html create mode 100755 de/es/index.html create mode 100755 de/es/installation/index.html create mode 100755 de/es/usage/index.html create mode 100755 de/faq/index.html create mode 100755 de/fr/api/index.html create mode 100755 de/fr/contributing/index.html create mode 100755 de/fr/faq/index.html create mode 100755 de/fr/index.html create mode 100755 de/fr/installation/index.html create mode 100755 de/fr/usage/index.html create mode 100755 de/hi/api/index.html create mode 100755 de/hi/contributing/index.html create mode 100755 de/hi/faq/index.html create mode 100755 de/hi/index.html create mode 100755 de/hi/installation/index.html create mode 100755 de/hi/usage/index.html create mode 100755 de/index.html create mode 100755 de/installation/index.html create mode 100755 de/it/api/index.html create mode 100755 de/it/contributing/index.html create mode 100755 de/it/faq/index.html create mode 100755 de/it/index.html create mode 100755 de/it/installation/index.html create mode 100755 de/it/usage/index.html create mode 100755 de/ja/api/index.html create mode 100755 de/ja/contributing/index.html create mode 100755 de/ja/faq/index.html create mode 100755 de/ja/index.html create mode 100755 de/ja/installation/index.html create mode 100755 de/ja/usage/index.html create mode 100755 de/ko/api/index.html create mode 100755 de/ko/contributing/index.html create mode 100755 de/ko/faq/index.html create mode 100755 de/ko/index.html create mode 100755 de/ko/installation/index.html create mode 100755 de/ko/usage/index.html create mode 100755 de/usage/index.html create mode 100755 de/zh/api/index.html create mode 100755 de/zh/contributing/index.html create mode 100755 de/zh/faq/index.html create mode 100755 de/zh/index.html create mode 100755 de/zh/installation/index.html create mode 100755 de/zh/usage/index.html create mode 100755 es/ar/api/index.html create mode 100755 es/ar/contributing/index.html create mode 100755 es/ar/faq/index.html create mode 100755 es/ar/index.html create mode 100755 es/ar/installation/index.html create mode 100755 es/ar/usage/index.html create mode 100755 es/de/api/index.html create mode 100755 es/de/contributing/index.html create mode 100755 es/de/faq/index.html create mode 100755 es/de/index.html create mode 100755 es/de/installation/index.html create mode 100755 es/de/usage/index.html create mode 100755 es/hi/api/index.html create mode 100755 es/hi/contributing/index.html create mode 100755 es/hi/faq/index.html create mode 100755 es/hi/index.html create mode 100755 es/hi/installation/index.html create mode 100755 es/hi/usage/index.html create mode 100755 es/it/api/index.html create mode 100755 es/it/contributing/index.html create mode 100755 es/it/faq/index.html create mode 100755 es/it/index.html create mode 100755 es/it/installation/index.html create mode 100755 es/it/usage/index.html create mode 100755 es/ja/api/index.html create mode 100755 es/ja/contributing/index.html create mode 100755 es/ja/faq/index.html create mode 100755 es/ja/index.html create mode 100755 es/ja/installation/index.html create mode 100755 es/ja/usage/index.html create mode 100755 es/ko/api/index.html create mode 100755 es/ko/contributing/index.html create mode 100755 es/ko/faq/index.html create mode 100755 es/ko/index.html create mode 100755 es/ko/installation/index.html create mode 100755 es/ko/usage/index.html create mode 100755 es/zh/api/index.html create mode 100755 es/zh/contributing/index.html create mode 100755 es/zh/faq/index.html create mode 100755 es/zh/index.html create mode 100755 es/zh/installation/index.html create mode 100755 es/zh/usage/index.html create mode 100755 fr/ar/api/index.html create mode 100755 fr/ar/contributing/index.html create mode 100755 fr/ar/faq/index.html create mode 100755 fr/ar/index.html create mode 100755 fr/ar/installation/index.html create mode 100755 fr/ar/usage/index.html create mode 100755 fr/de/api/index.html create mode 100755 fr/de/contributing/index.html create mode 100755 fr/de/faq/index.html create mode 100755 fr/de/index.html create mode 100755 fr/de/installation/index.html create mode 100755 fr/de/usage/index.html create mode 100755 fr/hi/api/index.html create mode 100755 fr/hi/contributing/index.html create mode 100755 fr/hi/faq/index.html create mode 100755 fr/hi/index.html create mode 100755 fr/hi/installation/index.html create mode 100755 fr/hi/usage/index.html create mode 100755 fr/it/api/index.html create mode 100755 fr/it/contributing/index.html create mode 100755 fr/it/faq/index.html create mode 100755 fr/it/index.html create mode 100755 fr/it/installation/index.html create mode 100755 fr/it/usage/index.html create mode 100755 fr/ja/api/index.html create mode 100755 fr/ja/contributing/index.html create mode 100755 fr/ja/faq/index.html create mode 100755 fr/ja/index.html create mode 100755 fr/ja/installation/index.html create mode 100755 fr/ja/usage/index.html create mode 100755 fr/ko/api/index.html create mode 100755 fr/ko/contributing/index.html create mode 100755 fr/ko/faq/index.html create mode 100755 fr/ko/index.html create mode 100755 fr/ko/installation/index.html create mode 100755 fr/ko/usage/index.html create mode 100755 fr/zh/api/index.html create mode 100755 fr/zh/contributing/index.html create mode 100755 fr/zh/faq/index.html create mode 100755 fr/zh/index.html create mode 100755 fr/zh/installation/index.html create mode 100755 fr/zh/usage/index.html create mode 100755 hi/api/index.html create mode 100755 hi/ar/api/index.html create mode 100755 hi/ar/contributing/index.html create mode 100755 hi/ar/faq/index.html create mode 100755 hi/ar/index.html create mode 100755 hi/ar/installation/index.html create mode 100755 hi/ar/usage/index.html create mode 100755 hi/contributing/index.html create mode 100755 hi/de/api/index.html create mode 100755 hi/de/contributing/index.html create mode 100755 hi/de/faq/index.html create mode 100755 hi/de/index.html create mode 100755 hi/de/installation/index.html create mode 100755 hi/de/usage/index.html create mode 100755 hi/en/api/index.html create mode 100755 hi/en/contributing/index.html create mode 100755 hi/en/faq/index.html create mode 100755 hi/en/index.html create mode 100755 hi/en/installation/index.html create mode 100755 hi/en/usage/index.html create mode 100755 hi/es/api/index.html create mode 100755 hi/es/contributing/index.html create mode 100755 hi/es/faq/index.html create mode 100755 hi/es/index.html create mode 100755 hi/es/installation/index.html create mode 100755 hi/es/usage/index.html create mode 100755 hi/faq/index.html create mode 100755 hi/fr/api/index.html create mode 100755 hi/fr/contributing/index.html create mode 100755 hi/fr/faq/index.html create mode 100755 hi/fr/index.html create mode 100755 hi/fr/installation/index.html create mode 100755 hi/fr/usage/index.html create mode 100755 hi/hi/api/index.html create mode 100755 hi/hi/contributing/index.html create mode 100755 hi/hi/faq/index.html create mode 100755 hi/hi/index.html create mode 100755 hi/hi/installation/index.html create mode 100755 hi/hi/usage/index.html create mode 100755 hi/index.html create mode 100755 hi/installation/index.html create mode 100755 hi/it/api/index.html create mode 100755 hi/it/contributing/index.html create mode 100755 hi/it/faq/index.html create mode 100755 hi/it/index.html create mode 100755 hi/it/installation/index.html create mode 100755 hi/it/usage/index.html create mode 100755 hi/ja/api/index.html create mode 100755 hi/ja/contributing/index.html create mode 100755 hi/ja/faq/index.html create mode 100755 hi/ja/index.html create mode 100755 hi/ja/installation/index.html create mode 100755 hi/ja/usage/index.html create mode 100755 hi/ko/api/index.html create mode 100755 hi/ko/contributing/index.html create mode 100755 hi/ko/faq/index.html create mode 100755 hi/ko/index.html create mode 100755 hi/ko/installation/index.html create mode 100755 hi/ko/usage/index.html create mode 100755 hi/usage/index.html create mode 100755 hi/zh/api/index.html create mode 100755 hi/zh/contributing/index.html create mode 100755 hi/zh/faq/index.html create mode 100755 hi/zh/index.html create mode 100755 hi/zh/installation/index.html create mode 100755 hi/zh/usage/index.html create mode 100755 it/api/index.html create mode 100755 it/ar/api/index.html create mode 100755 it/ar/contributing/index.html create mode 100755 it/ar/faq/index.html create mode 100755 it/ar/index.html create mode 100755 it/ar/installation/index.html create mode 100755 it/ar/usage/index.html create mode 100755 it/contributing/index.html create mode 100755 it/de/api/index.html create mode 100755 it/de/contributing/index.html create mode 100755 it/de/faq/index.html create mode 100755 it/de/index.html create mode 100755 it/de/installation/index.html create mode 100755 it/de/usage/index.html create mode 100755 it/en/api/index.html create mode 100755 it/en/contributing/index.html create mode 100755 it/en/faq/index.html create mode 100755 it/en/index.html create mode 100755 it/en/installation/index.html create mode 100755 it/en/usage/index.html create mode 100755 it/es/api/index.html create mode 100755 it/es/contributing/index.html create mode 100755 it/es/faq/index.html create mode 100755 it/es/index.html create mode 100755 it/es/installation/index.html create mode 100755 it/es/usage/index.html create mode 100755 it/faq/index.html create mode 100755 it/fr/api/index.html create mode 100755 it/fr/contributing/index.html create mode 100755 it/fr/faq/index.html create mode 100755 it/fr/index.html create mode 100755 it/fr/installation/index.html create mode 100755 it/fr/usage/index.html create mode 100755 it/hi/api/index.html create mode 100755 it/hi/contributing/index.html create mode 100755 it/hi/faq/index.html create mode 100755 it/hi/index.html create mode 100755 it/hi/installation/index.html create mode 100755 it/hi/usage/index.html create mode 100755 it/index.html create mode 100755 it/installation/index.html create mode 100755 it/it/api/index.html create mode 100755 it/it/contributing/index.html create mode 100755 it/it/faq/index.html create mode 100755 it/it/index.html create mode 100755 it/it/installation/index.html create mode 100755 it/it/usage/index.html create mode 100755 it/ja/api/index.html create mode 100755 it/ja/contributing/index.html create mode 100755 it/ja/faq/index.html create mode 100755 it/ja/index.html create mode 100755 it/ja/installation/index.html create mode 100755 it/ja/usage/index.html create mode 100755 it/ko/api/index.html create mode 100755 it/ko/contributing/index.html create mode 100755 it/ko/faq/index.html create mode 100755 it/ko/index.html create mode 100755 it/ko/installation/index.html create mode 100755 it/ko/usage/index.html create mode 100755 it/usage/index.html create mode 100755 it/zh/api/index.html create mode 100755 it/zh/contributing/index.html create mode 100755 it/zh/faq/index.html create mode 100755 it/zh/index.html create mode 100755 it/zh/installation/index.html create mode 100755 it/zh/usage/index.html create mode 100755 ja/api/index.html create mode 100755 ja/ar/api/index.html create mode 100755 ja/ar/contributing/index.html create mode 100755 ja/ar/faq/index.html create mode 100755 ja/ar/index.html create mode 100755 ja/ar/installation/index.html create mode 100755 ja/ar/usage/index.html create mode 100755 ja/contributing/index.html create mode 100755 ja/de/api/index.html create mode 100755 ja/de/contributing/index.html create mode 100755 ja/de/faq/index.html create mode 100755 ja/de/index.html create mode 100755 ja/de/installation/index.html create mode 100755 ja/de/usage/index.html create mode 100755 ja/en/api/index.html create mode 100755 ja/en/contributing/index.html create mode 100755 ja/en/faq/index.html create mode 100755 ja/en/index.html create mode 100755 ja/en/installation/index.html create mode 100755 ja/en/usage/index.html create mode 100755 ja/es/api/index.html create mode 100755 ja/es/contributing/index.html create mode 100755 ja/es/faq/index.html create mode 100755 ja/es/index.html create mode 100755 ja/es/installation/index.html create mode 100755 ja/es/usage/index.html create mode 100755 ja/faq/index.html create mode 100755 ja/fr/api/index.html create mode 100755 ja/fr/contributing/index.html create mode 100755 ja/fr/faq/index.html create mode 100755 ja/fr/index.html create mode 100755 ja/fr/installation/index.html create mode 100755 ja/fr/usage/index.html create mode 100755 ja/hi/api/index.html create mode 100755 ja/hi/contributing/index.html create mode 100755 ja/hi/faq/index.html create mode 100755 ja/hi/index.html create mode 100755 ja/hi/installation/index.html create mode 100755 ja/hi/usage/index.html create mode 100755 ja/index.html create mode 100755 ja/installation/index.html create mode 100755 ja/it/api/index.html create mode 100755 ja/it/contributing/index.html create mode 100755 ja/it/faq/index.html create mode 100755 ja/it/index.html create mode 100755 ja/it/installation/index.html create mode 100755 ja/it/usage/index.html create mode 100755 ja/ja/api/index.html create mode 100755 ja/ja/contributing/index.html create mode 100755 ja/ja/faq/index.html create mode 100755 ja/ja/index.html create mode 100755 ja/ja/installation/index.html create mode 100755 ja/ja/usage/index.html create mode 100755 ja/ko/api/index.html create mode 100755 ja/ko/contributing/index.html create mode 100755 ja/ko/faq/index.html create mode 100755 ja/ko/index.html create mode 100755 ja/ko/installation/index.html create mode 100755 ja/ko/usage/index.html create mode 100755 ja/usage/index.html create mode 100755 ja/zh/api/index.html create mode 100755 ja/zh/contributing/index.html create mode 100755 ja/zh/faq/index.html create mode 100755 ja/zh/index.html create mode 100755 ja/zh/installation/index.html create mode 100755 ja/zh/usage/index.html create mode 100755 ko/api/index.html create mode 100755 ko/ar/api/index.html create mode 100755 ko/ar/contributing/index.html create mode 100755 ko/ar/faq/index.html create mode 100755 ko/ar/index.html create mode 100755 ko/ar/installation/index.html create mode 100755 ko/ar/usage/index.html create mode 100755 ko/contributing/index.html create mode 100755 ko/de/api/index.html create mode 100755 ko/de/contributing/index.html create mode 100755 ko/de/faq/index.html create mode 100755 ko/de/index.html create mode 100755 ko/de/installation/index.html create mode 100755 ko/de/usage/index.html create mode 100755 ko/en/api/index.html create mode 100755 ko/en/contributing/index.html create mode 100755 ko/en/faq/index.html create mode 100755 ko/en/index.html create mode 100755 ko/en/installation/index.html create mode 100755 ko/en/usage/index.html create mode 100755 ko/es/api/index.html create mode 100755 ko/es/contributing/index.html create mode 100755 ko/es/faq/index.html create mode 100755 ko/es/index.html create mode 100755 ko/es/installation/index.html create mode 100755 ko/es/usage/index.html create mode 100755 ko/faq/index.html create mode 100755 ko/fr/api/index.html create mode 100755 ko/fr/contributing/index.html create mode 100755 ko/fr/faq/index.html create mode 100755 ko/fr/index.html create mode 100755 ko/fr/installation/index.html create mode 100755 ko/fr/usage/index.html create mode 100755 ko/hi/api/index.html create mode 100755 ko/hi/contributing/index.html create mode 100755 ko/hi/faq/index.html create mode 100755 ko/hi/index.html create mode 100755 ko/hi/installation/index.html create mode 100755 ko/hi/usage/index.html create mode 100755 ko/index.html create mode 100755 ko/installation/index.html create mode 100755 ko/it/api/index.html create mode 100755 ko/it/contributing/index.html create mode 100755 ko/it/faq/index.html create mode 100755 ko/it/index.html create mode 100755 ko/it/installation/index.html create mode 100755 ko/it/usage/index.html create mode 100755 ko/ja/api/index.html create mode 100755 ko/ja/contributing/index.html create mode 100755 ko/ja/faq/index.html create mode 100755 ko/ja/index.html create mode 100755 ko/ja/installation/index.html create mode 100755 ko/ja/usage/index.html create mode 100755 ko/ko/api/index.html create mode 100755 ko/ko/contributing/index.html create mode 100755 ko/ko/faq/index.html create mode 100755 ko/ko/index.html create mode 100755 ko/ko/installation/index.html create mode 100755 ko/ko/usage/index.html create mode 100755 ko/usage/index.html create mode 100755 ko/zh/api/index.html create mode 100755 ko/zh/contributing/index.html create mode 100755 ko/zh/faq/index.html create mode 100755 ko/zh/index.html create mode 100755 ko/zh/installation/index.html create mode 100755 ko/zh/usage/index.html delete mode 100755 search/search_index.json create mode 100755 zh/api/index.html create mode 100755 zh/ar/api/index.html create mode 100755 zh/ar/contributing/index.html create mode 100755 zh/ar/faq/index.html create mode 100755 zh/ar/index.html create mode 100755 zh/ar/installation/index.html create mode 100755 zh/ar/usage/index.html create mode 100755 zh/contributing/index.html create mode 100755 zh/de/api/index.html create mode 100755 zh/de/contributing/index.html create mode 100755 zh/de/faq/index.html create mode 100755 zh/de/index.html create mode 100755 zh/de/installation/index.html create mode 100755 zh/de/usage/index.html create mode 100755 zh/en/api/index.html create mode 100755 zh/en/contributing/index.html create mode 100755 zh/en/faq/index.html create mode 100755 zh/en/index.html create mode 100755 zh/en/installation/index.html create mode 100755 zh/en/usage/index.html create mode 100755 zh/es/api/index.html create mode 100755 zh/es/contributing/index.html create mode 100755 zh/es/faq/index.html create mode 100755 zh/es/index.html create mode 100755 zh/es/installation/index.html create mode 100755 zh/es/usage/index.html create mode 100755 zh/faq/index.html create mode 100755 zh/fr/api/index.html create mode 100755 zh/fr/contributing/index.html create mode 100755 zh/fr/faq/index.html create mode 100755 zh/fr/index.html create mode 100755 zh/fr/installation/index.html create mode 100755 zh/fr/usage/index.html create mode 100755 zh/hi/api/index.html create mode 100755 zh/hi/contributing/index.html create mode 100755 zh/hi/faq/index.html create mode 100755 zh/hi/index.html create mode 100755 zh/hi/installation/index.html create mode 100755 zh/hi/usage/index.html create mode 100755 zh/index.html create mode 100755 zh/installation/index.html create mode 100755 zh/it/api/index.html create mode 100755 zh/it/contributing/index.html create mode 100755 zh/it/faq/index.html create mode 100755 zh/it/index.html create mode 100755 zh/it/installation/index.html create mode 100755 zh/it/usage/index.html create mode 100755 zh/ja/api/index.html create mode 100755 zh/ja/contributing/index.html create mode 100755 zh/ja/faq/index.html create mode 100755 zh/ja/index.html create mode 100755 zh/ja/installation/index.html create mode 100755 zh/ja/usage/index.html create mode 100755 zh/ko/api/index.html create mode 100755 zh/ko/contributing/index.html create mode 100755 zh/ko/faq/index.html create mode 100755 zh/ko/index.html create mode 100755 zh/ko/installation/index.html create mode 100755 zh/ko/usage/index.html create mode 100755 zh/usage/index.html create mode 100755 zh/zh/api/index.html create mode 100755 zh/zh/contributing/index.html create mode 100755 zh/zh/faq/index.html create mode 100755 zh/zh/index.html create mode 100755 zh/zh/installation/index.html create mode 100755 zh/zh/usage/index.html diff --git a/404.html b/404.html index d58e187..a6456f1 100755 --- a/404.html +++ b/404.html @@ -1,6 +1,6 @@ - + @@ -66,7 +66,7 @@
-
@@ -179,7 +178,7 @@ - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + @@ -1272,6 +1775,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1380,6 +2009,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/en/contributing/index.html b/en/contributing/index.html index ad605fb..6c13836 100755 --- a/en/contributing/index.html +++ b/en/contributing/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/en/faq/index.html b/en/faq/index.html index 3f07f86..45d80b8 100755 --- a/en/faq/index.html +++ b/en/faq/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/en/index.html b/en/index.html index 733cc83..4a6e557 100755 --- a/en/index.html +++ b/en/index.html @@ -115,7 +115,7 @@ - - - - - -
  • + + Deutsch + +
  • + +
  • + + Italiano + +
  • + +
  • + + 中文 + +
  • - - - + @@ -497,51 +496,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -690,50 +815,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + @@ -1014,6 +1517,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1122,6 +1751,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/en/usage/index.html b/en/usage/index.html index f3520ed..2a70103 100755 --- a/en/usage/index.html +++ b/en/usage/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - + +
  • + + + + + + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • @@ -967,6 +1470,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1075,6 +1704,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/api/index.html b/es/api/index.html index 500a9f0..0d2de9e 100755 --- a/es/api/index.html +++ b/es/api/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -544,50 +669,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1441,6 +2070,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/ar/api/index.html b/es/ar/api/index.html new file mode 100755 index 0000000..e2604db --- /dev/null +++ b/es/ar/api/index.html @@ -0,0 +1,2359 @@ + + + + + + + + + + + + + + + + + + + Api - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Api

    + +

    التكوين

    +

    معلمات التهيئة لـ TextToAudioStream

    +

    عند تهيئة فئة TextToAudioStream، لديك خيارات متعددة لتخصيص سلوكها. إليك المعلمات المتاحة:

    +

    engine (BaseEngine)

    +
      +
    • النوع: BaseEngine
    • +
    • مطلوب: نعم المحرك الأساسي المسؤول عن تحويل النص إلى صوت. يجب عليك تقديم نسخة من BaseEngine أو أحد فروعها لتمكين توليف الصوت.
    • +
    +

    on_text_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق النص. استخدمه لأي إعداد أو تسجيل قد تحتاجه.
    • +
    +

    on_text_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم تفعيل هذه الدالة الراجعة الاختيارية عند انتهاء تدفق النص. يمكنك استخدام هذا لمهام التنظيف أو التسجيل.
    • +
    +

    on_audio_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق الصوت. مفيد لتحديثات واجهة المستخدم أو تسجيل الأحداث.
    • +
    +

    on_audio_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا تُستدعى هذه الدالة الاختيارية عند توقف تدفق الصوت. مثالي لتنظيف الموارد أو مهام المعالجة اللاحقة.
    • +
    +

    on_character (callable)

    +

    السياق: - النوع:
    +النص للترجمة: - النوع: دالة قابلة للاستدعاء +- مطلوب: لا تُستدعى هذه الدالة الاختيارية عند معالجة حرف واحد.

    +

    output_device_index (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا يحدد فهرس جهاز الإخراج الذي سيتم استخدامه. لا أحد يستخدم الجهاز الافتراضي.
    • +
    +

    tokenizer (string)

    +
      +
    • النوع: سلسلة
    • +
    • مطلوب: لا
    • +
    • افتراضي: nltk
    • +
    • الوصف: أداة تقسيم الجمل (currently "nltk" and "stanza" are supported).
    • +
    +

    language (سلسلة نصية)

    +
      +
    • النوع: سلسلة نصية
    • +
    • مطلوب: لا اللغة التي يجب استخدامها لتقسيم الجمل.
    • +
    +

    muted (bool)

    +
      +
    • النوع: Bool
    • +
    • مطلوب: لا
    • +
    • القيمة الافتراضية: False
    • +
    • الوصف: المعلمة العالمية الصامتة. إذا كان صحيحًا، فلن يتم فتح أي تدفق pyAudio. يعطل تشغيل الصوت عبر مكبرات الصوت المحلية (في حال كنت تريد التوليف إلى ملف أو معالجة أجزاء الصوت) ويتجاوز إعدادات كتم الصوت في معلمات التشغيل.
    • +
    +

    level (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا
    • +
    • افتراضي: logging.WARNING
    • +
    • الوصف: يحدد مستوى التسجيل للمدون الداخلي. يمكن أن يكون هذا أي ثابت صحيح من وحدة logging المدمجة في بايثون.
    • +
    +

    النص المراد ترجمته: #### مثال على الاستخدام:

    +
    engine = YourEngine()  # استبدل بمحركك
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    الطرق

    +

    play و play_async

    +

    هذه الطرق مسؤولة عن تنفيذ تحويل النص إلى صوت وتشغيل تدفق الصوت. الفرق هو أن play هي دالة حظر، بينما play_async تعمل في خيط منفصل، مما يسمح للعمليات الأخرى بالاستمرار.

    +

    السياق: ##### المعايير:
    +النص المراد ترجمته: ##### المعايير:

    +
    fast_sentence_fragment (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: عند تعيينه على True، ستعطي الطريقة الأولوية للسرعة، مما يؤدي إلى إنشاء وتشغيل أجزاء الجمل بشكل أسرع. هذا مفيد للتطبيقات التي تكون فيها الكمون مهمًا.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند تعيينه إلى True، يتم تطبيق معالجة أجزاء الجمل السريعة على جميع الجمل، وليس فقط الجملة الأولى.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • افتراضي: خطأ
    • +
    • الوصف: عند تعيينه على True، يسمح بإنتاج أجزاء متعددة من الجمل بدلاً من جزء واحد فقط.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • الافتراضي: 0.0
    • +
    • +

      الوصف: يحدد الوقت بالثواني لعتبة التخزين المؤقت، مما يؤثر على سلاسة واستمرارية تشغيل الصوت.

      +
    • +
    • +

      كيف يعمل: قبل تركيب جملة جديدة، يتحقق النظام مما إذا كان هناك المزيد من المواد الصوتية المتبقية في المخزن المؤقت أكثر من الوقت المحدد بواسطة buffer_threshold_seconds. إذا كان الأمر كذلك، فإنه يسترجع جملة أخرى من مولد النصوص، على افتراض أنه يمكنه جلب وتوليف هذه الجملة الجديدة ضمن الإطار الزمني المتاح من الصوت المتبقي في الذاكرة المؤقتة. تسمح هذه العملية لمحرك تحويل النص إلى كلام بالحصول على مزيد من السياق لتحسين التركيب، مما يعزز تجربة المستخدم.

      +
    • +
    +

    قيمة أعلى تضمن وجود المزيد من الصوت المخزن مسبقًا، مما يقلل من احتمال حدوث صمت أو فجوات أثناء التشغيل. إذا كنت تواجه انقطاعات أو توقفات، فكر في زيادة هذه القيمة.

    +
    minimum_sentence_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: يحدد الحد الأدنى لطول الأحرف لاعتبار سلسلة كنص يجب تصنيعه. هذا يؤثر على كيفية معالجة وتشغيل أجزاء النص.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: الحد الأدنى لعدد الأحرف المطلوبة للجزء الأول من الجملة قبل التوقف.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند التفعيل، يسجل أجزاء النص كما يتم تحويلها إلى صوت. مفيد للتدقيق وإصلاح الأخطاء.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: إذا كان صحيحًا، أعد تعيين النص المُولد قبل المعالجة.
    • +
    +
    output_wavfile (str)
    +
      +
    • الافتراضي: None
    • +
    • الوصف: إذا تم تعيينه، احفظ الصوت في ملف WAV المحدد.
    • +
    +
    on_sentence_synthesized (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة رد نداء تُستدعى بعد أن يتم تركيب جزء جملة واحد.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: دالة رد نداء تُستدعى قبل أن يتم تركيب جزء جملة واحد.
    • +
    +
    on_audio_chunk (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة الاستدعاء التي تُستدعى عندما يكون جزء الصوت جاهزًا.
    • +
    +
    tokenizer (str)
    +
      +
    • الافتراضي: "nltk"
    • +
    • الوصف: المحلل اللغوي المستخدم لتقسيم الجمل. يدعم حاليًا "nltk" و "stanza".
    • +
    +
    tokenize_sentences (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء +السياق: - الوصف:
      +النص للترجمة: - الوصف: دالة مخصصة تقوم بتقسيم الجمل من النص المدخل. يمكنك توفير محلل لغوي خفيف الوزن خاص بك إذا لم تكن راضيًا عن nltk وstanza. يجب أن يأخذ النص كسلسلة ويعيد الجمل المقسمة كقائمة من السلاسل.
    • +
    +
    language (str)
    +
      +
    • الإعداد الافتراضي: "en"
    • +
    • الوصف: اللغة المستخدمة لتقسيم الجمل.
    • +
    +
    context_size (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: عدد الأحرف المستخدمة لتحديد السياق لاكتشاف حدود الجمل. سياق أكبر يحسن دقة اكتشاف حدود الجمل.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: حجم سياق إضافي للنظر للأمام عند اكتشاف حدود الجمل.
    • +
    +
    muted (bool)
    +
      +
    • الإعداد الافتراضي: خطأ
    • +
    • الوصف: إذا كان صحيحًا، يتم تعطيل تشغيل الصوت عبر مكبرات الصوت المحلية. مفيد عندما تريد التوليف إلى ملف أو معالجة مقاطع الصوت دون تشغيلها.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • الإعداد الافتراضي: ".?!;:,\n…)]}。-" سلسلة من الأحرف التي تُعتبر محددات للجمل.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • الافتراضي: 15
    • +
    • الوصف: عدد الكلمات التي يجب بعدها أن يتم تقديم الجزء الأول من الجملة.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ar/contributing/index.html b/es/ar/contributing/index.html new file mode 100755 index 0000000..1ea9372 --- /dev/null +++ b/es/ar/contributing/index.html @@ -0,0 +1,1853 @@ + + + + + + + + + + + + + + + + + + + المساهمة في RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    المساهمة في RealtimeTTS

    +

    نرحب بالمساهمات في RealtimeTTS! إليك بعض الطرق التي يمكنك المساهمة بها:

    +
      +
    1. +

      الإبلاغ عن الأخطاء: إذا وجدت خطأً، يرجى فتح مشكلة على مستودع GitHub الخاص بنا.

      +
    2. +
    3. +

      اقتراح التحسينات: هل لديك أفكار لميزات جديدة أو تحسينات؟ نود أن نسمعها! افتح قضية لاقتراح تحسينات.

      +
    4. +
    5. +

      مساهمات البرمجة: هل تريد إضافة ميزة جديدة أو إصلاح خطأ؟ رائع! يرجى اتباع هذه الخطوات:

      +
    6. +
    7. قم بعمل Fork للمستودع
    8. +
    9. أنشئ فرعًا جديدًا لميزتك
    10. +
    11. أجرِ التغييرات الخاصة بك
    12. +
    13. +

      قدّم طلب سحب مع وصف واضح للتغييرات التي أجريتها

      +
    14. +
    15. +

      التوثيق: ساعدنا في تحسين توثيقنا من خلال تصحيح الأخطاء المطبعية، وإضافة أمثلة، أو توضيح الأقسام المربكة.

      +
    16. +
    17. +

      إضافة محركات جديدة: إذا كنت ترغب في إضافة دعم لمحرك TTS جديد، يرجى فتح قضية أولاً لمناقشة التنفيذ.

      +
    18. +
    +

    شكراً لمساعدتك في تحسين RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ar/faq/index.html b/es/ar/faq/index.html new file mode 100755 index 0000000..284f536 --- /dev/null +++ b/es/ar/faq/index.html @@ -0,0 +1,1837 @@ + + + + + + + + + + + + + + + + + + + الأسئلة المتكررة - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    الأسئلة المتكررة

    +

    للحصول على إجابات للأسئلة الشائعة حول RealtimeTTS، يرجى الرجوع إلى صفحة الأسئلة الشائعة على GitHub.

    +

    تغطي هذه الصفحة مواضيع متنوعة بما في ذلك:

    +
      +
    • استخدام محركات تحويل النص إلى كلام المختلفة
    • +
    • التعامل مع النصوص متعددة اللغات
    • +
    • تحسين الأداء
    • +
    • استكشاف المشكلات الشائعة وإصلاحها
    • +
    +

    لمزيد من المعلومات التفصيلية، يرجى زيارة الرابط أعلاه.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ar/index.html b/es/ar/index.html new file mode 100755 index 0000000..da4f33a --- /dev/null +++ b/es/ar/index.html @@ -0,0 +1,1867 @@ + + + + + + + + + + + + + + + + + + + RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    مكتبة تحويل النص إلى كلام سهلة الاستخدام ومنخفضة الكمون للتطبيقات في الوقت الحقيقي

    +

    عن المشروع

    +

    RealtimeTTS هي مكتبة متطورة لتحويل النص إلى كلام (TTS) مصممة للتطبيقات في الوقت الفعلي. تتميز بقدرتها على تحويل تدفقات النصوص بسرعة إلى مخرجات صوتية عالية الجودة مع الحد الأدنى من التأخير.

    +

    الميزات الرئيسية

    +
      +
    • زمن استجابة منخفض: تحويل النص إلى كلام شبه فوري، متوافق مع مخرجات نماذج اللغة الكبيرة
    • +
    • صوت عالي الجودة: يولد كلامًا واضحًا وطبيعيًا
    • +
    • دعم محركات تحويل النص إلى كلام المتعددة: يدعم OpenAI TTS، Elevenlabs، Azure Speech Services، Coqui TTS، gTTS وSystem TTS
    • +
    • متعدد اللغات
    • +
    • قوي وموثوق: يضمن التشغيل المستمر من خلال آلية احتياطية، ويتحول إلى محركات بديلة في حالة حدوث انقطاعات لضمان أداء موحد وموثوق
    • +
    +

    للحصول على تعليمات التثبيت، وأمثلة الاستخدام، ومرجع واجهة برمجة التطبيقات، يرجى التنقل عبر الوثائق باستخدام الشريط الجانبي.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ar/installation/index.html b/es/ar/installation/index.html new file mode 100755 index 0000000..f296734 --- /dev/null +++ b/es/ar/installation/index.html @@ -0,0 +1,2094 @@ + + + + + + + + + + + + + + + + + + + Installation - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Installation

    + +
    +

    ملاحظة: التثبيت الأساسي باستخدام pip install realtimetts لم يعد موصى به، استخدم pip install realtimetts[all] بدلاً من ذلك.

    +
    +

    توفر مكتبة RealtimeTTS خيارات تثبيت لمختلف التبعيات لحالتك الاستخدامية. إليك الطرق المختلفة التي يمكنك من خلالها تثبيت RealtimeTTS حسب احتياجاتك:

    +

    التثبيت الكامل

    +

    لتثبيت RealtimeTTS مع دعم لجميع محركات تحويل النص إلى كلام:

    +
    pip install -U realtimetts[all]
    +
    +

    التثبيت المخصص

    +

    يسمح RealtimeTTS بالتثبيت المخصص مع الحد الأدنى من تثبيت المكتبات. إليك الخيارات المتاحة: +- الكل: التثبيت الكامل مع دعم كل المحركات. +- النظام: يشمل قدرات تحويل النص إلى كلام الخاصة بالنظام (e.g., pyttsx3). +- azure: يضيف دعم خدمات Azure Cognitive Services Speech. +- elevenlabs: يتضمن التكامل مع واجهة برمجة تطبيقات ElevenLabs. +- openai: لخدمات الصوت من OpenAI. +- gtts: دعم Google Text-to-Speech. +- coqui: يقوم بتثبيت محرك Coqui TTS. +- minimal: يقوم بتثبيت المتطلبات الأساسية فقط بدون محرك (only needed if you want to develop an own engine)

    +

    قل أنك تريد تثبيت RealtimeTTS للاستخدام المحلي فقط مع Coqui TTS العصبي، فعليك استخدام:

    +
    pip install realtimetts[coqui]
    +
    +

    على سبيل المثال، إذا كنت ترغب في تثبيت RealtimeTTS مع دعم Azure Cognitive Services Speech و ElevenLabs و OpenAI فقط:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    تثبيت البيئة الافتراضية

    +

    بالنسبة لأولئك الذين يرغبون في إجراء تثبيت كامل داخل بيئة افتراضية، اتبعوا هذه الخطوات:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    مزيد من المعلومات حول تثبيت CUDA.

    +

    متطلبات المحرك

    +

    تتطلب المحركات المختلفة المدعومة من RealtimeTTS متطلبات فريدة. تأكد من أنك تلبي هذه المتطلبات بناءً على المحرك الذي تختاره.

    +

    محرك النظام

    +

    يعمل SystemEngine مباشرة مع قدرات تحويل النص إلى كلام المدمجة في نظامك. لا حاجة لأي إعداد إضافي.

    +

    GTTSEngine

    +

    يعمل GTTSEngine بشكل مباشر باستخدام واجهة برمجة التطبيقات لتحويل النص إلى كلام من Google Translate. لا حاجة لأي إعداد إضافي.

    +

    OpenAIEngine

    +

    لاستخدام OpenAIEngine: +- تعيين متغير البيئة OPENAI_API_KEY +- تثبيت ffmpeg (انظر تثبيت CUDA النقطة 3)

    +

    AzureEngine

    +

    لاستخدام AzureEngine، ستحتاج إلى: +- مفتاح واجهة برمجة تطبيقات تحويل النص إلى كلام من Microsoft Azure (المقدم عبر معامل منشئ AzureEngine "speech_key" أو في متغير البيئة AZURE_SPEECH_KEY) +- منطقة خدمة Microsoft Azure.

    +

    تأكد من أن لديك هذه البيانات متاحة ومهيأة بشكل صحيح عند تهيئة AzureEngine.

    +

    محرك Elevenlabs

    +

    بالنسبة لـ ElevenlabsEngine، تحتاج إلى: +- مفتاح واجهة برمجة تطبيقات Elevenlabs (المقدم عبر معلمة منشئ ElevenlabsEngine "api_key" أو في متغير البيئة ELEVENLABS_API_KEY) +- تم تثبيت mpv على نظامك (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 تثبيت mpv: + - macOS: + ``` + brew install mpv

    +
    
    +  - **لينكس وويندوز**: قم بزيارة [mpv.io](https://mpv.io/) للحصول على تعليمات التثبيت.
    +
    +### CoquiEngine
    +
    +يوفر تحويل النص إلى كلام العصبي المحلي عالي الجودة مع استنساخ الصوت.
    +
    +يقوم بتحميل نموذج TTS العصبي أولاً. في معظم الحالات، سيكون سريعًا بما يكفي للتشغيل في الوقت الحقيقي باستخدام تركيب GPU. يحتاج إلى حوالي 4-5 جيجابايت من ذاكرة الوصول العشوائي للرسوميات.
    +
    +- لاستنساخ الصوت، قدم اسم ملف wav يحتوي على الصوت المصدر كمعامل "voice" إلى مُنشئ CoquiEngine
    +- يعمل استنساخ الصوت بشكل أفضل مع ملف WAV أحادي 16 بت بتردد 22050 هرتز يحتوي على عينة قصيرة (~5-30 ثانية)
    +
    +في معظم الأنظمة، ستكون هناك حاجة لدعم وحدة معالجة الرسوميات (GPU) لتشغيلها بسرعة كافية في الوقت الحقيقي، وإلا ستواجه تلعثماً.
    +
    +
    +### تثبيت CUDA
    +
    +تُوصى هذه الخطوات لمن يحتاجون إلى **أداء أفضل** ولديهم وحدة معالجة رسومات NVIDIA متوافقة.
    +
    +> **ملاحظة**: *للتحقق مما إذا كانت بطاقة NVIDIA الرسومية الخاصة بك تدعم CUDA، قم بزيارة [قائمة بطاقات CUDA الرسمية](https://developer.nvidia.com/cuda-gpus).*
    +
    +لاستخدام Torch مع الدعم عبر CUDA، يرجى اتباع الخطوات التالية:
    +
    +> **ملاحظة**: *قد لا تحتاج إصدارات PyTorch الأحدث [إلى](https://stackoverflow.com/a/77069523) (غير مؤكدة) إلى تثبيت Toolkit (وربما cuDNN) بعد الآن.*
    +
    +1. **تثبيت NVIDIA CUDA Toolkit**:
    +    على سبيل المثال، لتثبيت Toolkit 12.X، يرجى
    +    - زيارة [تنزيلات NVIDIA CUDA](https://developer.nvidia.com/cuda-downloads).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار النظام.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +    أو لتثبيت Toolkit 11.8، يرجى
    +    - زيارة [أرشيف NVIDIA CUDA Toolkit](https://developer.nvidia.com/cuda-11-8-0-download-archive).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار نظام التشغيل.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٢. **تثبيت NVIDIA cuDNN**:
    +
    +    على سبيل المثال، لتثبيت cuDNN 8.7.0 لـ CUDA 11.x يرجى
    +    - زيارة [أرشيف NVIDIA cuDNN](https://developer.nvidia.com/rdp/cudnn-archive).
    +    - انقر على "تحميل cuDNN v8.7.0 (28 نوفمبر 2022)، لـ CUDA 11.x".
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٣. **تثبيت ffmpeg**:
    +
    +    يمكنك تنزيل مثبت لنظام التشغيل الخاص بك من [موقع ffmpeg](https://ffmpeg.org/download.html).
    +
    +    أو استخدم مدير حزم:
    +
    +    - **على أوبونتو أو ديبيان**:
    +        ```
    +        sudo apt update && sudo apt install ffmpeg
    +        ```
    +
    +    - **على أرتش لينكس**:
    +        ```
    +        sudo pacman -S ffmpeg
    +        ```
    +
    +    - **على نظام MacOS باستخدام Homebrew** ([https://brew.sh/](https://brew.sh/)):
    +        ```
    +        brew install ffmpeg
    +        ```
    +
    +    - **على نظام ويندوز باستخدام Chocolatey** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **على نظام ويندوز باستخدام سكوب** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    سكووب تثبيت ffmpeg
    +
    +
    
    +٤. **تثبيت PyTorch مع دعم CUDA**:
    +
    +    لترقية تثبيت PyTorch الخاص بك لتمكين دعم GPU باستخدام CUDA، اتبع هذه التعليمات بناءً على إصدار CUDA الخاص بك. هذا مفيد إذا كنت ترغب في تحسين أداء RealtimeSTT بقدرات CUDA.
    +
    +    - **لـ CUDA 11.8:**
    +
    +        لتحديث PyTorch و Torchaudio لدعم CUDA 11.8، استخدم الأوامر التالية:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        النص للترجمة: ```
    +
    +- **لـ CUDA 12.X:**
    +
    +
    +    لتحديث PyTorch و Torchaudio لدعم CUDA 12.X، نفذ ما يلي:
    +
    +    ```
    +    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +

    النص للترجمة:

    +
    استبدل `2.3.1` بالإصدار من PyTorch الذي يتناسب مع نظامك ومتطلباتك.
    +
    +
      +
    1. إصلاح لحل مشاكل التوافق: + إذا واجهت مشاكل في توافق المكتبات، حاول ضبط هذه المكتبات على إصدارات ثابتة:
    2. +
    +

    النص للترجمة: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ar/usage/index.html b/es/ar/usage/index.html new file mode 100755 index 0000000..957df93 --- /dev/null +++ b/es/ar/usage/index.html @@ -0,0 +1,2035 @@ + + + + + + + + + + + + + + + + + + + الاستخدام - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    الاستخدام

    +

    البداية السريعة

    +

    إليك مثال بسيط للاستخدام:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    نص التغذية

    +

    يمكنك إدخال سلاسل فردية:

    +
    stream.feed("مرحبًا، هذه جملة.")
    +
    +

    أو يمكنك تزويد المولدات ومكررات الشخصيات للبث المباشر:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    التشغيل

    +

    بشكل غير متزامن:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    بالتزامن:

    +
    stream.play()
    +
    +

    اختبار المكتبة

    +

    تحتوي الدليل الفرعي للاختبار على مجموعة من السكربتات لمساعدتك في تقييم وفهم قدرات مكتبة RealtimeTTS.

    +

    يرجى ملاحظة أن معظم الاختبارات لا تزال تعتمد على واجهة برمجة التطبيقات "القديمة" من OpenAI (<1.0.0). يتم توضيح استخدام واجهة برمجة التطبيقات الجديدة من OpenAI في openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • الوصف: عرض توضيحي بأسلوب "مرحبا بالعالم" لأبسط استخدامات المكتبة.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • الوصف: عرض شامل يوضح معظم الميزات التي توفرها المكتبة.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • الوصف: اختبار لمحرك تحويل النص إلى كلام المحلي coqui.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt.
      • +
      • الوصف: ترجمات فورية إلى ست لغات مختلفة.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt. +السياق: - الوصف:
        +النص للترجمة: - الوصف: تم تفعيل كلمة الاستيقاظ وواجهة المستخدم المعتمدة على الصوت لواجهة برمجة تطبيقات OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • التبعيات: شغل الأمر pip install openai keyboard realtimestt.
      • +
      • الوصف: اختر محرك تحويل النص إلى كلام والصوت قبل بدء المحادثة مع الذكاء الاصطناعي.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • المتطلبات: قم بتشغيل pip install openai realtimestt.
      • +
      • الوصف: روبوت محادثة بسيط في 20 سطر من الشيفرة.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • التبعيات: شغّل pip install openai.
      • +
      • الوصف: عرض بسيط لكيفية دمج المكتبة مع نماذج اللغة الكبيرة (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • التبعيات: شغل pip install openai. +السياق: - الوصف:
        +النص للترجمة: - الوصف: يعرض الاستدعاءات ويتيح لك التحقق من أوقات الكمون في بيئة تطبيقات العالم الحقيقي.
      • +
      +
    • +
    +

    إيقاف مؤقت، استئناف وإيقاف

    +

    أوقف بث الصوت:

    +
    stream.pause()
    +
    +

    استئناف بث متوقف:

    +
    stream.resume()
    +
    +

    أوقف البث فورًا:

    +
    stream.stop()
    +
    +

    متطلبات موضحة

    +
      +
    • إصدار بايثون:
    • +
    • المطلوب: بايثون >= 3.9, < 3.13
    • +
    • +

      السبب: المكتبة تعتمد على مكتبة GitHub "TTS" من coqui، والتي تتطلب إصدارات بايثون في هذا النطاق.

      +
    • +
    • +

      PyAudio: لإنشاء دفق صوتي خارجي

      +
    • +
    • +

      stream2sentence: لتقسيم تدفق النص الوارد إلى جمل

      +
    • +
    • +

      pyttsx3: محرك تحويل النص إلى كلام للنظام

      +
    • +
    • +

      pydub: لتحويل تنسيقات مقاطع الصوت

      +
    • +
    • +

      azure-cognitiveservices-speech: محرك تحويل النص إلى كلام من Azure

      +
    • +
    • +

      elevenlabs: محرك تحويل النص إلى كلام من Elevenlabs

      +
    • +
    • +

      coqui-TTS: مكتبة Coqui XTTS لتحويل النص إلى كلام بجودة عالية باستخدام الشبكات العصبية المحلية

      +
    • +
    +

    تحية إلى معهد أبحاث إيديا على الحفاظ على نسخة مفرعة من coqui tts.

    +
      +
    • +

      openai: للتفاعل مع واجهة برمجة التطبيقات لتحويل النص إلى كلام من OpenAI

      +
    • +
    • +

      gtts: تحويل النص إلى كلام باستخدام Google Translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/contributing/index.html b/es/contributing/index.html index 4c0addf..5f751f1 100755 --- a/es/contributing/index.html +++ b/es/contributing/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/es/de/api/index.html b/es/de/api/index.html new file mode 100755 index 0000000..12831e4 --- /dev/null +++ b/es/de/api/index.html @@ -0,0 +1,2777 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Konfiguration

    +

    Initialisierungsparameter für TextToAudioStream

    +

    Bei der Initialisierung der TextToAudioStream-Klasse haben Sie verschiedene Möglichkeiten, deren Verhalten anzupassen. Hier sind die verfügbaren Parameter:

    +

    engine (BaseEngine)

    +
      +
    • Typ: BaseEngine
    • +
    • Erforderlich: Ja
    • +
    • Beschreibung: Die zugrunde liegende Engine, die für die Text-zu-Audio-Synthese verantwortlich ist. Sie müssen eine Instanz von BaseEngine oder deren Unterklasse bereitstellen, um die Audio-Synthese zu ermöglichen.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird ausgelöst, wenn der Textstream beginnt. Verwenden Sie sie für beliebige Setup- oder Logging-Aufgaben.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aktiviert, wenn der Textstream endet. Sie können diese für Aufräumarbeiten oder Logging verwenden.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream startet. Nützlich für UI-Aktualisierungen oder Event-Logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream stoppt. Ideal für Ressourcenbereinigung oder Nachbearbeitungsaufgaben.
    • +
    +

    on_character (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn ein einzelnes Zeichen verarbeitet wird.
    • +
    +

    output_device_index (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: None
    • +
    • Beschreibung: Gibt den zu verwendenden Ausgabegeräte-Index an. None verwendet das Standardgerät.
    • +
    +

    tokenizer (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: nltk
    • +
    • Beschreibung: Tokenizer für die Satztrennung (derzeit werden "nltk" und "stanza" unterstützt).
    • +
    +

    language (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: en
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +

    muted (bool)

    +
      +
    • Typ: Bool
    • +
    • Erforderlich: Nein
    • +
    • Standard: False
    • +
    • Beschreibung: Globaler Stummschaltungsparameter. Wenn True, wird kein pyAudio-Stream geöffnet. Deaktiviert die Audiowiedergabe über lokale Lautsprecher.
    • +
    +

    level (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: logging.WARNING
    • +
    • Beschreibung: Legt den Logging-Level für den internen Logger fest.
    • +
    +

    Beispielverwendung:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methoden

    +

    play und play_async

    +

    Diese Methoden sind für die Ausführung der Text-zu-Audio-Synthese und das Abspielen des Audio-Streams verantwortlich. Der Unterschied besteht darin, dass play eine blockierende Funktion ist, während play_async in einem separaten Thread läuft, wodurch andere Operationen fortgesetzt werden können.

    +

    Parameter:

    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn auf True gesetzt, priorisiert die Methode die Geschwindigkeit und generiert und spielt Satzfragmente schneller ab. Dies ist nützlich für Anwendungen, bei denen die Latenz wichtig ist.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, wird die schnelle Satzfragmentverarbeitung auf alle Sätze angewendet, nicht nur auf den ersten.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, ermöglicht es die Ausgabe mehrerer Satzfragmente anstelle von nur einem.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Beschreibung: Gibt die Zeit in Sekunden für den Puffer-Schwellenwert an, der die Gleichmäßigkeit und Kontinuität der Audiowiedergabe beeinflusst.

      +
    • +
    • +

      Funktionsweise: Bevor ein neuer Satz synthetisiert wird, prüft das System, ob mehr Audiomaterial im Puffer verbleibt als die durch buffer_threshold_seconds angegebene Zeit. Wenn ja, ruft es einen weiteren Satz vom Textgenerator ab, unter der Annahme, dass es diesen neuen Satz innerhalb des Zeitfensters, das durch das verbleibende Audio im Puffer bereitgestellt wird, abrufen und synthetisieren kann. Dieser Prozess ermöglicht es der Text-to-Speech-Engine, mehr Kontext für eine bessere Synthese zu haben und verbessert dadurch das Benutzererlebnis.

      +
    • +
    +

    Ein höherer Wert sorgt für mehr vorgepuffertes Audio und reduziert die Wahrscheinlichkeit von Stille oder Lücken während der Wiedergabe. Wenn Sie Unterbrechungen oder Pausen bemerken, erhöhen Sie diesen Wert.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Legt die minimale Zeichenlänge fest, ab der ein String als zu synthetisierender Satz betrachtet wird. Dies beeinflusst, wie Textabschnitte verarbeitet und abgespielt werden.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Die minimale Anzahl von Zeichen, die für das erste Satzfragment erforderlich sind, bevor es ausgegeben wird.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn aktiviert, protokolliert es die Textabschnitte während ihrer Synthese zu Audio. Hilfreich für Überprüfung und Debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn True, wird der generierte Text vor der Verarbeitung zurückgesetzt.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Beschreibung: Wenn gesetzt, wird das Audio in der angegebenen WAV-Datei gespeichert.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, nachdem ein einzelnes Satzfragment synthetisiert wurde.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, bevor ein einzelnes Satzfragment synthetisiert wird.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Callback-Funktion, die aufgerufen wird, wenn ein einzelner Audio-Chunk bereit ist.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Beschreibung: Tokenizer für die Satztrennung. Unterstützt derzeit "nltk" und "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine benutzerdefinierte Funktion, die Sätze aus dem Eingabetext tokenisiert. Sie können Ihren eigenen leichtgewichtigen Tokenizer bereitstellen, wenn Sie mit nltk und stanza unzufrieden sind. Die Funktion sollte Text als String entgegennehmen und getrennte Sätze als Liste von Strings zurückgeben.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Die Anzahl der Zeichen, die verwendet werden, um den Kontext für die Satzerkennung festzulegen. Ein größerer Kontext verbessert die Genauigkeit der Satzerkennung.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Zusätzliche Kontextgröße für den Vorausblick bei der Satzerkennung.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn True, wird die Audiowiedergabe über lokale Lautsprecher deaktiviert. Nützlich, wenn Sie in eine Datei synthetisieren oder Audio-Chunks verarbeiten möchten, ohne sie abzuspielen.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Beschreibung: Eine Zeichenkette von Zeichen, die als Satztrennzeichen betrachtet werden.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Beschreibung: Die Anzahl der Wörter, nach denen das erste Satzfragment erzwungen ausgegeben wird.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/de/contributing/index.html b/es/de/contributing/index.html new file mode 100755 index 0000000..23e1fbe --- /dev/null +++ b/es/de/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Beitrag zu RealtimeTTS

    +

    Wir freuen uns über Beiträge zu RealtimeTTS! Hier sind einige Möglichkeiten, wie Sie dazu beitragen können:

    +
      +
    1. +

      Berichterstattung über Fehler: Wenn Sie einen Fehler finden, öffnen Sie bitte ein Problem in unserem [GitHub-Repository] (https://github.com/KoljaB/RealtimeTTS/issues).

      +
    2. +
    3. +

      ** Verbesserungsvorschläge**: Haben Sie Ideen für neue Funktionen oder Verbesserungen? Wir würden sie gerne hören! Öffnen Sie eine Ausgabe, um Verbesserungen vorzuschlagen.

      +
    4. +
    5. +

      Code Beiträge: Möchten Sie eine neue Funktion hinzufügen oder einen Fehler beheben? Super! Bitte folgen Sie diesen Schritten:

      +
    6. +
    7. Forken Sie das Repository
    8. +
    9. Erstellen Sie einen neuen Zweig für Ihre Funktion
    10. +
    11. Nehmen Sie Ihre Änderungen vor
    12. +
    13. +

      Senden Sie eine Pull-Anfrage mit einer klaren Beschreibung Ihrer Änderungen

      +
    14. +
    15. +

      Dokumentation: Helfen Sie uns, unsere Dokumentation zu verbessern, indem Sie Tippfehler reparieren, Beispiele hinzufügen oder verwirrende Abschnitte klären.

      +
    16. +
    17. +

      ** Hinzufügen neuer Motoren**: Wenn Sie Unterstützung für eine neue TTS-Engine hinzufügen möchten, öffnen Sie bitte zuerst eine Ausgabe, um die Implementierung zu besprechen.

      +
    18. +
    +

    Vielen Dank, dass Sie dazu beigetragen haben, RealtimeTTS besser zu machen!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/de/faq/index.html b/es/de/faq/index.html new file mode 100755 index 0000000..d721b7c --- /dev/null +++ b/es/de/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Häufig gestellte Fragen

    +

    Antworten auf häufig gestellte Fragen zu RealtimeTTS finden Sie auf unserer [FAQ-Seite auf GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Diese Seite behandelt verschiedene Themen, darunter:

    +
      +
    • Verwendung verschiedener TTS-Motoren
    • +
    • Umgang mit mehrsprachigem Text
    • +
    • Leistungsoptimierung
    • +
    • Fehlerbehebung bei häufigen Problemen
    • +
    +

    Für genauere Informationen besuchen Sie bitte den obigen Link.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/de/index.html b/es/de/index.html new file mode 100755 index 0000000..38a5418 --- /dev/null +++ b/es/de/index.html @@ -0,0 +1,1864 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +
      +
    • Einfach zu verwendende Text-to-Speech-Bibliothek mit geringer Latenz für Echtzeitanwendungen*
    • +
    +

    Über das Projekt

    +

    RealtimeTTS ist eine hochmoderne Text-to-Speech-Bibliothek (TTS), die für Echtzeitanwendungen entwickelt wurde. Es zeichnet sich durch seine Fähigkeit aus, Textströme schnell in hochwertige Hörausgaben mit minimaler Latenz umzuwandeln.

    +

    Hauptmerkmale

    +
      +
    • Niedrige Latenz: nahezu sofortige Text-zu-Sprache-Konvertierung, kompatibel mit LLM-Ausgaben
    • +
    • High-Quality Audio: erzeugt klare und natürlich klingende Sprache
    • +
    • Multiple TTS Engine Support: unterstützt OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS und System TTS
    • +
    • Mehrsprachig
    • +
    • Robust und zuverlässig: sorgt für einen kontinuierlichen Betrieb durch einen Rückfallmechanismus und wechselt bei Störungen zu alternativen Motoren, die eine gleichbleibende Leistung und Zuverlässigkeit gewährleisten
    • +
    +

    Für Installationsanweisungen, Nutzungsbeispiele und API-Referenzen navigieren Sie bitte über die Seitenleiste durch die Dokumentation.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/de/installation/index.html b/es/de/installation/index.html new file mode 100755 index 0000000..e9d4532 --- /dev/null +++ b/es/de/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Deutsch

    + +
    +

    Hinweis: Die Basisinstallation mit pip install realtimetts wird nicht mehr empfohlen. Verwenden Sie stattdessen pip install realtimetts[all].

    +
    +

    Die RealtimeTTS-Bibliothek bietet verschiedene Installationsoptionen für Abhängigkeiten je nach Anwendungsfall. Hier sind die verschiedenen Möglichkeiten, RealtimeTTS entsprechend Ihren Anforderungen zu installieren:

    +

    Vollständige Installation

    +

    Um RealtimeTTS mit Unterstützung für alle TTS-Engines zu installieren:

    +
    pip install -U realtimetts[all]
    +
    +

    Benutzerdefinierte Installation

    +

    RealtimeTTS ermöglicht eine benutzerdefinierte Installation mit minimalen Bibliotheksinstallationen. Folgende Optionen stehen zur Verfügung: +- all: Vollständige Installation mit Unterstützung aller Engines. +- system: Enthält systemspezifische TTS-Fähigkeiten (z.B. pyttsx3). +- azure: Fügt Azure Cognitive Services Speech-Unterstützung hinzu. +- elevenlabs: Enthält Integration mit der ElevenLabs API. +- openai: Für OpenAI-Sprachdienste. +- gtts: Google Text-to-Speech-Unterstützung. +- coqui: Installiert die Coqui TTS-Engine. +- minimal: Installiert nur die Basisanforderungen ohne Engine (nur erforderlich, wenn Sie eine eigene Engine entwickeln möchten)

    +

    Wenn Sie RealtimeTTS nur für die lokale neuronale Coqui TTS-Nutzung installieren möchten, verwenden Sie:

    +
    pip install realtimetts[coqui]
    +
    +

    Wenn Sie beispielsweise RealtimeTTS nur mit Azure Cognitive Services Speech, ElevenLabs und OpenAI-Unterstützung installieren möchten:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installation in virtueller Umgebung

    +

    Für diejenigen, die eine vollständige Installation in einer virtuellen Umgebung durchführen möchten, folgen Sie diesen Schritten:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Weitere Informationen zur CUDA-Installation.

    +

    Engine-Anforderungen

    +

    Verschiedene von RealtimeTTS unterstützte Engines haben spezifische Anforderungen. Stellen Sie sicher, dass Sie diese Anforderungen je nach gewählter Engine erfüllen.

    +

    SystemEngine

    +

    Die SystemEngine funktioniert von Haus aus mit den integrierten TTS-Fähigkeiten Ihres Systems. Keine zusätzliche Einrichtung erforderlich.

    +

    GTTSEngine

    +

    Die GTTSEngine funktioniert von Haus aus mit der Google Translate Text-to-Speech API. Keine zusätzliche Einrichtung erforderlich.

    +

    OpenAIEngine

    +

    Zur Verwendung der OpenAIEngine: +- Umgebungsvariable OPENAI_API_KEY setzen +- ffmpeg installieren (siehe CUDA-Installation Punkt 3)

    +

    AzureEngine

    +

    Für die Verwendung der AzureEngine benötigen Sie: +- Microsoft Azure Text-to-Speech API-Schlüssel (bereitgestellt über den AzureEngine-Konstruktorparameter "speech_key" oder in der Umgebungsvariable AZURE_SPEECH_KEY) +- Microsoft Azure Service-Region

    +

    Stellen Sie sicher, dass diese Anmeldedaten verfügbar und korrekt konfiguriert sind, wenn Sie die AzureEngine initialisieren.

    +

    ElevenlabsEngine

    +

    Für die ElevenlabsEngine benötigen Sie: +- Elevenlabs API-Schlüssel (bereitgestellt über den ElevenlabsEngine-Konstruktorparameter "api_key" oder in der Umgebungsvariable ELEVENLABS_API_KEY) +- mpv auf Ihrem System installiert (wesentlich für das Streaming von MPEG-Audio, Elevenlabs liefert nur MPEG)

    +

    🔹 Installation von mpv: + - macOS: + brew install mpv

    +
      +
    • Linux und Windows: Besuchen Sie mpv.io für Installationsanweisungen.
    • +
    +

    CoquiEngine

    +

    Bietet hochwertige, lokale, neuronale TTS mit Stimmklonen.

    +

    Lädt zuerst ein neurales TTS-Modell herunter. In den meisten Fällen ist es mit GPU-Synthese schnell genug für Echtzeit. Benötigt etwa 4-5 GB VRAM.

    +
      +
    • Um eine Stimme zu klonen, übergeben Sie den Dateinamen einer Wave-Datei, die die Quellstimme enthält, als "voice"-Parameter an den CoquiEngine-Konstruktor
    • +
    • Stimmklonen funktioniert am besten mit einer 22050 Hz Mono 16bit WAV-Datei, die eine kurze (~5-30 Sek.) Probe enthält
    • +
    +

    Auf den meisten Systemen wird GPU-Unterstützung benötigt, um schnell genug für Echtzeit zu sein, andernfalls werden Sie Stottern erleben.

    +

    CUDA-Installation

    +

    Diese Schritte werden für diejenigen empfohlen, die bessere Leistung benötigen und eine kompatible NVIDIA GPU haben.

    +
    +

    Hinweis: Um zu überprüfen, ob Ihre NVIDIA GPU CUDA unterstützt, besuchen Sie die offizielle CUDA GPUs-Liste.

    +
    +

    Um torch mit CUDA-Unterstützung zu verwenden, folgen Sie bitte diesen Schritten:

    +
    +

    Hinweis: Neuere PyTorch-Installationen könnten (unbestätigt) keine Toolkit (und möglicherweise cuDNN) Installation mehr benötigen.

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkit installieren: + Um beispielsweise Toolkit 12.X zu installieren:

      +
        +
      • Besuchen Sie NVIDIA CUDA Downloads.
      • +
      • Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version.
      • +
      • Laden Sie die Software herunter und installieren Sie sie.
      • +
      +

      oder um Toolkit 11.8 zu installieren: +- Besuchen Sie NVIDIA CUDA Toolkit Archive. +- Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version. +- Laden Sie die Software herunter und installieren Sie sie.

      +
    2. +
    3. +

      NVIDIA cuDNN installieren:

      +

      Um beispielsweise cuDNN 8.7.0 für CUDA 11.x zu installieren: +- Besuchen Sie NVIDIA cuDNN Archive. +- Klicken Sie auf "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Laden Sie die Software herunter und installieren Sie sie.

      +
    4. +
    5. +

      ffmpeg installieren:

      +

      Sie können einen Installer für Ihr Betriebssystem von der ffmpeg Website herunterladen.

      +

      Oder verwenden Sie einen Paketmanager:

      +
        +
      • +

        Unter Ubuntu oder Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Unter Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Unter MacOS mit Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Unter Windows mit Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Unter Windows mit Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      PyTorch mit CUDA-Unterstützung installieren:

      +

      Um Ihre PyTorch-Installation zu aktualisieren und GPU-Unterstützung mit CUDA zu aktivieren, folgen Sie diesen Anweisungen basierend auf Ihrer spezifischen CUDA-Version. Dies ist nützlich, wenn Sie die Leistung von RealtimeSTT mit CUDA-Fähigkeiten verbessern möchten.

      +
        +
      • +

        Für CUDA 11.8:

        +

        Um PyTorch und Torchaudio für CUDA 11.8-Unterstützung zu aktualisieren, verwenden Sie folgende Befehle:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Für CUDA 12.X:

        +

        Um PyTorch und Torchaudio für CUDA 12.X-Unterstützung zu aktualisieren, führen Sie Folgendes aus:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Ersetzen Sie 2.3.1 durch die Version von PyTorch, die Ihrem System und Ihren Anforderungen entspricht.

      +
    8. +
    9. +

      Behebung von Kompatibilitätsproblemen: + Wenn Sie auf Bibliotheks-Kompatibilitätsprobleme stoßen, versuchen Sie, diese Bibliotheken auf feste Versionen zu setzen:

      +
    10. +
    +

    `

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    `

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/de/usage/index.html b/es/de/usage/index.html new file mode 100755 index 0000000..208221a --- /dev/null +++ b/es/de/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    + +
    + + + +
    +
    + + + + +

    Verwendung

    +

    Schnellstart

    +

    Hier ist ein grundlegendes Beispiel:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # ersetzen Sie dies mit Ihrer TTS-Engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Text Einspeisung

    +

    Sie können einzelne Zeichenketten einspeisen:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oder Sie können Generatoren und Zeichen-Iteratoren für Echtzeit-Streaming verwenden:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Wiedergabe

    +

    Asynchron:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchron:

    +
    stream.play()
    +
    +

    Testen der Bibliothek

    +

    Das Test-Unterverzeichnis enthält eine Reihe von Skripten, die Ihnen helfen, die Fähigkeiten der RealtimeTTS-Bibliothek zu bewerten und zu verstehen.

    +

    Beachten Sie, dass die meisten Tests noch auf der "alten" OpenAI API (<1.0.0) basieren. Die Verwendung der neuen OpenAI API wird in openai_1.0_test.py demonstriert.

    +
      +
    • +

      simple_test.py

      +
        +
      • Beschreibung: Eine "Hello World"-ähnliche Demonstration der einfachsten Bibliotheksnutzung.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Beschreibung: Eine umfassende Demonstration der meisten Funktionen der Bibliothek.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Beschreibung: Test der lokalen Coqui TTS-Engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Echtzeitübersetzungen in sechs verschiedene Sprachen.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Durch Aktivierungswort gesteuerte und sprachbasierte Benutzeroberfläche für die OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai keyboard realtimestt aus.
      • +
      • Beschreibung: Wählen Sie TTS-Engine und Stimme vor Beginn der KI-Konversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Ein grundlegender Sprachbot in 20 Codezeilen.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Einfache Demonstration der Integration der Bibliothek mit Large Language Models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Zeigt die Callbacks und lässt Sie die Latenzzeiten in einer realen Anwendungsumgebung überprüfen.
      • +
      +
    • +
    +

    Pause, Fortsetzen & Stoppen

    +

    Audiostream pausieren:

    +
    stream.pause()
    +
    +

    Pausierten Stream fortsetzen:

    +
    stream.resume()
    +
    +

    Stream sofort stoppen:

    +
    stream.stop()
    +
    +

    Erläuterung der Anforderungen

    +
      +
    • Python Version:
    • +
    • Erforderlich: Python >= 3.9, < 3.13
    • +
    • +

      Grund: Die Bibliothek hängt von der GitHub-Bibliothek "TTS" von Coqui ab, die Python-Versionen in diesem Bereich erfordert.

      +
    • +
    • +

      PyAudio: zur Erstellung eines Audio-Ausgabestreams

      +
    • +
    • +

      stream2sentence: zum Aufteilen des eingehenden Textstreams in Sätze

      +
    • +
    • +

      pyttsx3: System Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      pydub: zur Konvertierung von Audio-Chunk-Formaten

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS Text-to-Speech Bibliothek für hochwertige lokale neuronale TTS

      +
    • +
    +

    Dank an das Idiap Research Institute für die Pflege eines Forks von Coqui TTS.

    +
      +
    • +

      openai: zur Interaktion mit der OpenAI TTS API

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech Konvertierung

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/en/api/index.html b/es/en/api/index.html index 8b88573..e3b8163 100755 --- a/es/en/api/index.html +++ b/es/en/api/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -544,50 +669,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + @@ -1272,6 +1775,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1380,6 +2009,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/en/contributing/index.html b/es/en/contributing/index.html index 322158a..3939f63 100755 --- a/es/en/contributing/index.html +++ b/es/en/contributing/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/es/en/faq/index.html b/es/en/faq/index.html index 2f4b029..29e6893 100755 --- a/es/en/faq/index.html +++ b/es/en/faq/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/es/en/index.html b/es/en/index.html index 60da601..9552831 100755 --- a/es/en/index.html +++ b/es/en/index.html @@ -132,50 +132,49 @@
  • - - - - - - - - + @@ -497,51 +496,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -690,50 +815,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + @@ -1014,6 +1517,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1122,6 +1751,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/en/usage/index.html b/es/en/usage/index.html index fe9b770..572560f 100755 --- a/es/en/usage/index.html +++ b/es/en/usage/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - + +
  • + + + + + + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • @@ -967,6 +1470,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1075,6 +1704,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/es/api/index.html b/es/es/api/index.html index d35d164..ea8c586 100755 --- a/es/es/api/index.html +++ b/es/es/api/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -544,50 +669,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1441,6 +2070,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/es/contributing/index.html b/es/es/contributing/index.html index bef7a81..a1716f9 100755 --- a/es/es/contributing/index.html +++ b/es/es/contributing/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/es/es/faq/index.html b/es/es/faq/index.html index c183dc5..365bc7e 100755 --- a/es/es/faq/index.html +++ b/es/es/faq/index.html @@ -12,6 +12,8 @@ + + @@ -132,50 +134,49 @@
  • - - - - - - - - + @@ -434,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -499,51 +498,6 @@ - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -690,50 +815,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + @@ -1014,6 +1517,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1122,6 +1751,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/es/usage/index.html b/es/es/usage/index.html index 935de08..67dc696 100755 --- a/es/es/usage/index.html +++ b/es/es/usage/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - + +
  • + + + + + + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • @@ -967,6 +1470,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1075,6 +1704,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/faq/index.html b/es/faq/index.html index 277cf40..521f965 100755 --- a/es/faq/index.html +++ b/es/faq/index.html @@ -12,6 +12,8 @@ + + @@ -132,50 +134,49 @@ - - - - - - - - + @@ -434,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -544,50 +669,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1398,6 +2027,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/fr/contributing/index.html b/es/fr/contributing/index.html index f33e11b..b5892ce 100755 --- a/es/fr/contributing/index.html +++ b/es/fr/contributing/index.html @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/es/fr/faq/index.html b/es/fr/faq/index.html index 7f048e1..e107754 100755 --- a/es/fr/faq/index.html +++ b/es/fr/faq/index.html @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/es/fr/index.html b/es/fr/index.html index 4dee2ca..8d13c92 100755 --- a/es/fr/index.html +++ b/es/fr/index.html @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -499,51 +498,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -699,50 +824,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + @@ -1023,6 +1526,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1131,6 +1760,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/fr/usage/index.html b/es/fr/usage/index.html index 79bce52..042f92e 100755 --- a/es/fr/usage/index.html +++ b/es/fr/usage/index.html @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - + +
  • + + + + + + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • @@ -967,6 +1470,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1075,6 +1704,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/hi/api/index.html b/es/hi/api/index.html new file mode 100755 index 0000000..4bc4a13 --- /dev/null +++ b/es/hi/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    हिंदी

    + +

    कॉन्फ़िगरेशन

    +

    TextToAudioStream के लिए प्रारंभिक पैरामीटर

    +

    जब आप TextToAudioStream क्लास का इनिशियलाइज़ेशन करते हैं, तो आपके पास इसके व्यवहार को कस्टमाइज़ करने के लिए विभिन्न विकल्प होते हैं। यहाँ उपलब्ध पैरामीटर हैं:

    +

    engine (BaseEngine)

    +
      +
    • प्रकार: BaseEngine
    • +
    • आवश्यकता: हाँ
    • +
    • विवरण: टेक्स्ट-से-ऑडियो सिंथेसिस के लिए ज़िम्मेदार आधार इंजन। आपको ऑडियो सिंथेसिस को सक्षम करने के लिए BaseEngine या इसके सबक्लास का एक इंस्टेंस प्रदान करना होगा।
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब ट्रिगर होता है जब टेक्स्ट स्ट्रीम शुरू होती है। इसे किसी सेटअप या लॉगिंग के लिए उपयोग करें।
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन टेक्स्ट स्ट्रीम समाप्त होने पर सक्रिय होता है। इसे क्लीनअप कार्यों या लॉगिंग के लिए उपयोग किया जा सकता है।
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब चालू होता है जब ऑडियो स्ट्रीम शुरू होती है। यह UI अपडेट या इवेंट लॉगिंग के लिए सहायक है।
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन ऑडियो स्ट्रीम समाप्त होने पर कॉल किया जाता है। यह संसाधन क्लीनअप या पोस्ट-प्रोसेसिंग कार्यों के लिए आदर्श है।
    • +
    +

    on_character (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब कॉल किया जाता है जब एकल कैरेक्टर प्रोसेस किया जाता है।
    • +
    +

    output_device_index (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: उपयोग करने के लिए आउटपुट डिवाइस इंडेक्स निर्दिष्ट करता है। None डिफ़ॉल्ट डिवाइस का उपयोग करता है।
    • +
    +

    tokenizer (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: nltk
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग किए जाने वाले टोकनाइज़र (वर्तमान में "nltk" और "stanza" समर्थित हैं)।
    • +
    +

    language (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: en
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +

    muted (bool)

    +
      +
    • प्रकार: बूल
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: ग्लोबल म्यूटेड पैरामीटर। अगर True है, तो कोई pyAudio स्ट्रीम नहीं खोली जाएगी। स्थानीय स्पीकरों के माध्यम से ऑडियो प्लेबैक को अक्षम करता है और प्ले पैरामीटर म्यूट सेटिंग को ओवरराइड करता है।
    • +
    +

    level (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: logging.WARNING
    • +
    • विवरण: आंतरिक लॉगर के लिए लॉगिंग स्तर सेट करता है। यह पायथन के बिल्ट-इन logging मॉड्यूल से कोई भी इंटीजर कॉन्स्टेंट हो सकता है।
    • +
    +

    उदाहरण उपयोग:

    +
    engine = YourEngine()  # अपने इंजन के साथ प्रतिस्थापित करें
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    मेथड्स

    +

    play और play_async

    +

    ये मेथड्स टेक्स्ट-से-ऑडियो सिंथेसिस को निष्पादित करने और ऑडियो स्ट्रीम प्ले करने के लिए जिम्मेदार हैं। play एक ब्लॉकिंग फंक्शन है, जबकि play_async एक अलग थ्रेड में चलता है, जिससे अन्य ऑपरेशंस जारी रह सकते हैं।

    +
    पैरामीटर:
    +
    fast_sentence_fragment (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह विधि स्पीड को प्राथमिकता देगी, और वाक्यांशों को तेजी से जनरेट और प्ले करेगी। यह ऐसे अनुप्रयोगों के लिए सहायक है जहाँ विलंबता मायने रखती है।
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो सभी वाक्यों पर फास्ट वाक्यांश प्रोसेसिंग लागू करता है।
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह एकल के बजाय एकाधिक वाक्यांश उत्पन्न करने की अनुमति देता है।
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • डिफ़ॉल्ट: 0.0
    • +
    • +

      विवरण: बफ़रिंग सीमा के लिए समय को सेकंड में निर्दिष्ट करता है, जो ऑडियो प्लेबैक की स्थिरता और निरंतरता को प्रभावित करता है।

      +
    • +
    • +

      कैसे काम करता है: नए वाक्य का सिंथेसिस करने से पहले, सिस्टम यह जांचता है कि क्या बफ़र में निर्दिष्ट समय से अधिक ऑडियो सामग्री बची है। इससे यह सुनिश्चित होता है कि अधिक प्री-बफ़र किए गए ऑडियो से प्लेबैक में मौन या अंतराल कम हो।

      +
    • +
    +
    minimum_sentence_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: एक स्ट्रिंग को सिंथेसाइज़ करने के लिए वाक्य के रूप में मानने के लिए न्यूनतम कैरेक्टर की लंबाई सेट करता है।
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: पहले वाक्यांश के लिए आवश्यक न्यूनतम कैरेक्टर की संख्या सेट करता है।
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: सक्षम होने पर, ऑडियो में सिंथेसाइज़ होते समय टेक्स्ट के अंशों को लॉग करता है।
    • +
    +
    reset_generated_text (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: अगर True है, तो प्रोसेसिंग से पहले जनरेट किए गए टेक्स्ट को रीसेट करता है।
    • +
    +
    output_wavfile (str)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: यदि सेट है, तो ऑडियो को निर्दिष्ट WAV फाइल में सहेजता है।
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने के बाद कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने से पहले कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल ऑडियो टुकड़ा तैयार होने पर कॉल किया जाने वाला कॉलबैक फंक्शन।
    • +
    +
    tokenizer (str)
    +
      +
    • डिफ़ॉल्ट: "nltk"
    • +
    • विवरण: वाक्य विभाजन के लिए टोकनाइज़र। वर्तमान में "nltk" और "stanza" का समर्थन है।
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: टेक्स्ट से वाक्य को टोकनाइज़ करने
    • +
    +

    वाला एक कस्टम फंक्शन। यदि आप nltk और stanza से संतुष्ट नहीं हैं, तो अपना स्वयं का टोकनाइज़र प्रदान कर सकते हैं।

    +
    language (str)
    +
      +
    • डिफ़ॉल्ट: "en"
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +
    context_size (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाने के लिए संदर्भ स्थापित करने के लिए प्रयुक्त कैरेक्टर की संख्या।
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाते समय आगे देखने के लिए अतिरिक्त संदर्भ आकार।
    • +
    +
    muted (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: यदि True है, तो स्थानीय स्पीकर के माध्यम से ऑडियो प्लेबैक को अक्षम करता है।
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • डिफ़ॉल्ट: ".?!;:,\n…)]}。-"
    • +
    • विवरण: उन कैरेक्टर की स्ट्रिंग जो वाक्य सीमाओं के रूप में माने जाते हैं।
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • डिफ़ॉल्ट: 15
    • +
    • विवरण: पहले वाक्यांश को उत्पन्न करने के लिए आवश्यक शब्दों की संख्या।
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/hi/contributing/index.html b/es/hi/contributing/index.html new file mode 100755 index 0000000..b5b9cae --- /dev/null +++ b/es/hi/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS में योगदान करें

    +

    हम RealtimeTTS में आपके योगदान का स्वागत करते हैं! आप इन तरीकों से योगदान कर सकते हैं:

    +
      +
    1. +

      बग रिपोर्ट करना: यदि आपको कोई बग मिलता है, तो कृपया हमारे GitHub रिपॉजिटरी पर एक इश्यू खोलें।

      +
    2. +
    3. +

      सुधारों का सुझाव देना: क्या आपके पास नई सुविधाओं या सुधारों के लिए सुझाव हैं? हमें उन्हें सुनकर खुशी होगी! कृपया सुधारों का सुझाव देने के लिए एक इश्यू खोलें।

      +
    4. +
    5. +

      कोड योगदान: कोई नई सुविधा जोड़ना चाहते हैं या किसी बग को ठीक करना चाहते हैं? शानदार! कृपया इन चरणों का पालन करें:

      +
    6. +
    7. रिपॉजिटरी को फोर्क करें
    8. +
    9. अपने फीचर के लिए एक नई ब्रांच बनाएं
    10. +
    11. अपने बदलाव करें
    12. +
    13. +

      अपने बदलावों का स्पष्ट विवरण देते हुए एक पुल रिक्वेस्ट सबमिट करें

      +
    14. +
    15. +

      दस्तावेज़ीकरण: टाइपो सुधारने, उदाहरण जोड़ने या भ्रमित करने वाले भागों को स्पष्ट करके हमें अपने दस्तावेज़ीकरण में सुधार करने में मदद करें।

      +
    16. +
    17. +

      नए इंजनों को जोड़ना: यदि आप किसी नए TTS इंजन के लिए समर्थन जोड़ना चाहते हैं, तो कृपया पहले एक इश्यू खोलें ताकि हम इसके कार्यान्वयन पर चर्चा कर सकें।

      +
    18. +
    +

    RealtimeTTS को बेहतर बनाने में मदद करने के लिए धन्यवाद!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/hi/faq/index.html b/es/hi/faq/index.html new file mode 100755 index 0000000..fac5ee6 --- /dev/null +++ b/es/hi/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    अक्सर पूछे जाने वाले प्रश्न

    +

    RealtimeTTS से संबंधित अक्सर पूछे जाने वाले प्रश्नों के उत्तर के लिए, कृपया हमारे GitHub पर FAQ पेज पर जाएँ।

    +

    यह पेज विभिन्न विषयों को कवर करता है, जिनमें शामिल हैं:

    +
      +
    • विभिन्न TTS इंजनों का उपयोग
    • +
    • बहुभाषी टेक्स्ट को संभालना
    • +
    • प्रदर्शन में सुधार
    • +
    • सामान्य समस्याओं का समाधान
    • +
    +

    अधिक विस्तृत जानकारी के लिए, कृपया ऊपर दिए गए लिंक पर जाएँ।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/hi/index.html b/es/hi/index.html new file mode 100755 index 0000000..72519ca --- /dev/null +++ b/es/hi/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    रीयल-टाइम अनुप्रयोगों के लिए उपयोग में आसान, कम-विलंबता वाला टेक्स्ट-टू-स्पीच लाइब्रेरी

    +

    परियोजना के बारे में

    +

    RealtimeTTS एक अत्याधुनिक टेक्स्ट-टू-स्पीच (TTS) लाइब्रेरी है, जिसे रीयल-टाइम अनुप्रयोगों के लिए डिज़ाइन किया गया है। इसकी सबसे बड़ी विशेषता यह है कि यह न्यूनतम विलंबता के साथ टेक्स्ट स्ट्रीम को तेज़ी से उच्च-गुणवत्ता वाली ध्वनि में परिवर्तित कर सकता है।

    +

    मुख्य विशेषताएँ

    +
      +
    • कम विलंबता: लगभग तात्कालिक टेक्स्ट-टू-स्पीच रूपांतरण, LLM आउटपुट के अनुकूल
    • +
    • उच्च-गुणवत्ता वाली ध्वनि: स्पष्ट और प्राकृतिक-ध्वनि उत्पन्न करता है
    • +
    • विभिन्न TTS इंजनों का समर्थन: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS और System TTS का समर्थन करता है
    • +
    • बहुभाषी समर्थन
    • +
    • मजबूत और विश्वसनीय: लगातार संचालन सुनिश्चित करने के लिए एक फ़ॉलबैक तंत्र का उपयोग करता है, व्यवधानों के मामले में वैकल्पिक इंजनों पर स्विच करता है, जो स्थिरता और विश्वसनीयता की गारंटी देता है
    • +
    +

    स्थापना निर्देशों, उपयोग के उदाहरणों और API संदर्भ के लिए, कृपया साइडबार का उपयोग करके दस्तावेज़ में नेविगेट करें।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/hi/installation/index.html b/es/hi/installation/index.html new file mode 100755 index 0000000..1494ac1 --- /dev/null +++ b/es/hi/installation/index.html @@ -0,0 +1,2216 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | HN

    +
    +

    नोट: pip install realtimetts का बेसिक इंस्टॉलेशन अब अनुशंसित नहीं है, इसके बजाय pip install realtimetts[all] का उपयोग करें।

    +
    +

    RealtimeTTS लाइब्रेरी विभिन्न निर्भरताओं के साथ इंस्टॉलेशन के विकल्प प्रदान करती है, ताकि आप अपने उपयोग के अनुसार इसे स्थापित कर सकें। यहाँ इंस्टॉलेशन के विभिन्न विकल्प दिए गए हैं:

    +

    पूर्ण स्थापना

    +

    सभी TTS इंजनों के समर्थन के साथ RealtimeTTS स्थापित करने के लिए:

    +
    pip install -U realtimetts[all]
    +
    +

    कस्टम इंस्टॉलेशन

    +

    RealtimeTTS में न्यूनतम लाइब्रेरी इंस्टॉलेशन के साथ कस्टम इंस्टॉलेशन की सुविधा है। उपलब्ध विकल्प:

    +
      +
    • all: सभी इंजनों के साथ पूर्ण इंस्टॉलेशन।
    • +
    • system: सिस्टम-विशिष्ट TTS क्षमताएँ शामिल करता है (जैसे, pyttsx3)।
    • +
    • azure: Azure Cognitive Services Speech का समर्थन जोड़ता है।
    • +
    • elevenlabs: ElevenLabs API के साथ एकीकरण।
    • +
    • openai: OpenAI वॉइस सेवाओं के लिए।
    • +
    • gtts: Google Text-to-Speech समर्थन।
    • +
    • coqui: Coqui TTS इंजन स्थापित करता है।
    • +
    • minimal: केवल बेस आवश्यकताओं को स्थापित करता है, बिना किसी इंजन के (यदि आप अपना इंजन विकसित करना चाहते हैं तो इसकी आवश्यकता होती है)।
    • +
    +

    उदाहरण के लिए, केवल स्थानीय न्यूरल Coqui TTS उपयोग के लिए RealtimeTTS स्थापित करना हो, तो उपयोग करें:

    +
    pip install realtimetts[coqui]
    +
    +

    अगर आप केवल Azure Cognitive Services Speech, ElevenLabs, और OpenAI का समर्थन चाहते हैं तो:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    वर्चुअल एनवायरनमेंट इंस्टॉलेशन

    +

    यदि आप एक वर्चुअल एनवायरनमेंट में पूर्ण स्थापना करना चाहते हैं, तो ये कदम अपनाएँ:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA इंस्टॉलेशन के बारे में अधिक जानकारी।

    +

    इंजन आवश्यकताएँ

    +

    RealtimeTTS द्वारा समर्थित विभिन्न इंजनों की अलग-अलग आवश्यकताएँ हैं। अपनी पसंद के अनुसार इन आवश्यकताओं को पूरा करना सुनिश्चित करें।

    +

    SystemEngine

    +

    SystemEngine आपके सिस्टम की अंतर्निहित TTS क्षमताओं के साथ स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    GTTSEngine

    +

    GTTSEngine Google Translate के टेक्स्ट-टू-स्पीच API का उपयोग करके स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    OpenAIEngine

    +

    OpenAIEngine का उपयोग करने के लिए: +- पर्यावरण वेरिएबल OPENAI_API_KEY सेट करें +- ffmpeg स्थापित करें (देखें CUDA इंस्टॉलेशन बिंदु 3)

    +

    AzureEngine

    +

    AzureEngine का उपयोग करने के लिए आपको चाहिए: +- Microsoft Azure Text-to-Speech API कुंजी (AzureEngine में "speech_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल AZURE_SPEECH_KEY में) +- Microsoft Azure सेवा क्षेत्र।

    +

    इंस्टॉल करते समय ये क्रेडेंशियल उपलब्ध और सही तरीके से कॉन्फ़िगर करना सुनिश्चित करें।

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine के लिए, आपको चाहिए: +- Elevenlabs API कुंजी (ElevenlabsEngine में "api_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल ELEVENLABS_API_KEY में) +- आपके सिस्टम पर mpv स्थापित हो (mpeg ऑडियो स्ट्रीमिंग के लिए आवश्यक है, Elevenlabs केवल mpeg प्रदान करता है)।

    +

    🔹 mpv स्थापित करना: + - macOS: + brew install mpv

    +
      +
    • Linux और Windows: इंस्टॉलेशन के निर्देशों के लिए mpv.io पर जाएं।
    • +
    +

    CoquiEngine

    +

    उच्च गुणवत्ता, स्थानीय, न्यूरल TTS प्रदान करता है जिसमें वॉइस-क्लोनिंग भी शामिल है।

    +

    पहली बार एक न्यूरल TTS मॉडल डाउनलोड करता है। अधिकतर मामलों में GPU सिंथेसिस का उपयोग करते हुए रीयल-टाइम के लिए पर्याप्त तेज़ होगा। लगभग 4-5 GB VRAM की आवश्यकता होती है।

    +
      +
    • वॉइस क्लोन करने के लिए CoquiEngine के "voice" पैरामीटर में एक वेव फ़ाइल का नाम दर्ज करें जिसमें स्रोत वॉइस हो।
    • +
    • वॉइस क्लोनिंग के लिए 22050 Hz मोनो 16-बिट WAV फाइल के साथ लगभग 5-30 सेकंड की नमूना ऑडियो फ़ाइल सबसे अच्छा परिणाम देती है।
    • +
    +

    CUDA इंस्टॉलेशन

    +

    वे लोग जिनके पास NVIDIA GPU है और जो बेहतर प्रदर्शन चाहते हैं, उनके लिए ये कदम अनुशंसित हैं।

    +
    +

    नोट: अगर आपका NVIDIA GPU CUDA को सपोर्ट करता है तो आधिकारिक CUDA GPUs सूची पर जाँचें।

    +
    +

    CUDA समर्थन के साथ torch का उपयोग करने के लिए, इन चरणों का पालन करें:

    +
      +
    1. +

      NVIDIA CUDA टूलकिट स्थापित करें: + उदाहरण के लिए, टूलकिट 12.X स्थापित करने के लिए:

      +
        +
      • NVIDIA CUDA डाउनलोड पर जाएँ।
      • +
      • अपने ऑपरेटिंग सिस्टम, सिस्टम आर्किटेक्चर, और ओएस संस्करण का चयन करें।
      • +
      • सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।
      • +
      +
    2. +
    3. +

      NVIDIA cuDNN स्थापित करें:

      +

      उदाहरण के लिए, CUDA 11.x के लिए cuDNN 8.7.0 स्थापित करने के लिए: +- NVIDIA cuDNN Archive पर जाएं। +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x" पर क्लिक करें। +- सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।

      +
    4. +
    5. +

      ffmpeg स्थापित करें:

      +

      आप अपने OS के लिए ffmpeg वेबसाइट से इंस्टॉलर डाउनलोड कर सकते हैं: ffmpeg Website

      +
    6. +
    7. +

      CUDA समर्थन के साथ PyTorch स्थापित करें:

      +

      अपने सिस्टम और आवश्यकताओं के अनुसार PyTorch संस्करण को CUDA समर्थन के साथ अपग्रेड करने के लिए:

      +
        +
      • +

        CUDA 11.8 के लिए:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        CUDA 12.X के लिए:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +
    8. +
    9. +

      संगतता समस्याओं को हल करने के लिए फिक्स: + यदि आप लाइब्रेरी संगतता मुद्दों का सामना करते हैं, तो इन लाइब्रेरी संस्करणों को फिक्स करने का प्रयास करें:

      +
    10. +
    +

    pip install networkx==2.8.8 + pip install typing_extensions==4.8.0 + pip install fsspec==2023.6.0 + pip install imageio==2.31.6 + pip install numpy==1.24.3 + pip install requests==2.31.0

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/hi/usage/index.html b/es/hi/usage/index.html new file mode 100755 index 0000000..10c4379 --- /dev/null +++ b/es/hi/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    उपयोग

    +

    त्वरित प्रारंभ

    +

    यहाँ एक बुनियादी उदाहरण दिया गया है:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # अपनी TTS-इंजन के साथ इसे बदलें
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    टेक्स्ट इनपुट

    +

    आप व्यक्तिगत स्ट्रिंग्स इनपुट कर सकते हैं:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    या आप वास्तविक समय-स्ट्रीमिंग के लिए जनरेटर और कैरेक्टर-इटरेटर का उपयोग कर सकते हैं:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    प्लेबैक

    +

    असिंक्रोनस:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    सिंक्रोनस:

    +
    stream.play()
    +
    +

    लाइब्रेरी का परीक्षण

    +

    परीक्षण-सबडायरेक्टरी में विभिन्न स्क्रिप्ट्स शामिल हैं, जो आपको RealtimeTTS लाइब्रेरी की क्षमताओं को समझने और आकलन करने में मदद करती हैं।

    +

    ध्यान दें कि अधिकांश परीक्षण अभी भी "पुरानी" OpenAI API (<1.0.0) पर आधारित हैं। नई OpenAI API का उपयोग openai_1.0_test.py में प्रदर्शित किया गया है।

    +
      +
    • +

      simple_test.py

      +
        +
      • विवरण: सबसे आसान लाइब्रेरी उपयोग का एक "Hello World" जैसा प्रदर्शन।
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • विवरण: लाइब्रेरी की अधिकतम कार्यक्षमता का व्यापक प्रदर्शन।
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • विवरण: स्थानीय Coqui TTS-इंजन का परीक्षण।
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: वास्तविक समय में छह विभिन्न भाषाओं में अनुवाद।
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: एक्टिवेशन-वर्ड के माध्यम से और आवाज-आधारित इंटरफ़ेस के साथ OpenAI API का उपयोग।
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • आवश्यकताएँ: pip install openai keyboard realtimestt कमांड चलाएँ।
      • +
      • विवरण: AI बातचीत शुरू करने से पहले TTS-इंजन और आवाज का चयन।
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: 20 कोड लाइनों में एक साधारण टॉकबोट।
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: लाइब्रेरी की LLMs के साथ एकीकृत करने का सरल प्रदर्शन।
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: वास्तविक वातावरण में विलंब समय को मापने और प्रतिक्रिया को प्रदर्शित करता है।
      • +
      +
    • +
    +

    रुकना, पुनः आरंभ करना और रोकना

    +

    ऑडियो स्ट्रीम को रोकें:

    +
    stream.pause()
    +
    +

    रुकी हुई स्ट्रीम पुनः प्रारंभ करें:

    +
    stream.resume()
    +
    +

    स्ट्रीम तुरंत रोकें:

    +
    stream.stop()
    +
    +

    आवश्यकताओं का स्पष्टीकरण

    +
      +
    • Python संस्करण:
    • +
    • आवश्यक: Python >= 3.9, < 3.13
    • +
    • +

      कारण: लाइब्रेरी Coqui की GitHub लाइब्रेरी "TTS" पर निर्भर करती है, जो इस संस्करण सीमा का समर्थन करती है।

      +
    • +
    • +

      PyAudio: ऑडियो आउटपुट स्ट्रीम बनाने के लिए

      +
    • +
    • +

      stream2sentence: इनकमिंग टेक्स्ट स्ट्रीम को वाक्यों में विभाजित करने के लिए

      +
    • +
    • +

      pyttsx3: सिस्टम Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      pydub: ऑडियो चंक फॉर्मेट्स में कन्वर्शन के लिए

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      coqui-TTS: उच्च गुणवत्ता वाली स्थानीय न्यूरल TTS के लिए Coqui का XTTS Text-to-Speech लाइब्रेरी

      +
    • +
    +

    Idiap Research Institute को उनके Coqui TTS का Fork बनाए रखने के लिए धन्यवाद।

    +
      +
    • +

      openai: OpenAI TTS API के साथ बातचीत के लिए

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech कन्वर्शन

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/index.html b/es/index.html index 1a5404f..73916a4 100755 --- a/es/index.html +++ b/es/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -499,51 +498,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -690,50 +815,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + @@ -1014,6 +1517,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1122,6 +1751,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/it/api/index.html b/es/it/api/index.html new file mode 100755 index 0000000..747511f --- /dev/null +++ b/es/it/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Italiano

    + +

    Configurazione

    +

    Parametri di Inizializzazione per TextToAudioStream

    +

    Quando si inizializza la classe TextToAudioStream, sono disponibili diverse opzioni per personalizzare il suo comportamento. Ecco i parametri disponibili:

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Obbligatorio: Sì
    • +
    • Descrizione: Il motore sottostante responsabile della sintesi da testo ad audio. È necessario fornire un'istanza di BaseEngine o della sua sottoclasse per abilitare la sintesi audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando inizia lo stream di testo. Utilizzala per qualsiasi configurazione o registrazione necessaria.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando termina lo stream di testo. Puoi utilizzarla per attività di pulizia o registrazione.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene invocata quando inizia lo stream audio. Utile per aggiornamenti dell'interfaccia utente o registrazione eventi.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando lo stream audio si ferma. Ideale per la pulizia delle risorse o attività di post-elaborazione.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando viene elaborato un singolo carattere.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: None
    • +
    • Descrizione: Specifica l'indice del dispositivo di output da utilizzare. None usa il dispositivo predefinito.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: nltk
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi (attualmente sono supportati "nltk" e "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: en
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Obbligatorio: No
    • +
    • Predefinito: False
    • +
    • Descrizione: Parametro globale di silenziamento. Se True, non verrà aperto alcuno stream pyAudio. Disabilita la riproduzione audio attraverso gli altoparlanti locali (nel caso in cui si desideri sintetizzare su file o elaborare chunk audio) e sovrascrive l'impostazione muted dei parametri di riproduzione.
    • +
    +

    level (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: logging.WARNING
    • +
    • Descrizione: Imposta il livello di logging per il logger interno. Può essere qualsiasi costante intera dal modulo logging integrato di Python.
    • +
    +

    Esempio di Utilizzo:

    +
    engine = YourEngine()  # Sostituire con il proprio motore
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Metodi

    +

    play e play_async

    +

    Questi metodi sono responsabili dell'esecuzione della sintesi testo-audio e della riproduzione dello stream audio. La differenza è che play è una funzione bloccante, mentre play_async viene eseguito in un thread separato, permettendo ad altre operazioni di procedere.

    +
    Parametri:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Quando impostato su True, il metodo darà priorità alla velocità, generando e riproducendo i frammenti di frase più rapidamente. Questo è utile per applicazioni dove la latenza è importante.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, applica l'elaborazione rapida dei frammenti di frase a tutte le frasi, non solo alla prima.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, permette di produrre più frammenti di frase invece di uno solo.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Predefinito: 0.0
    • +
    • +

      Descrizione: Specifica il tempo in secondi per la soglia di buffering, che influenza la fluidità e la continuità della riproduzione audio.

      +
    • +
    • +

      Come Funziona: Prima di sintetizzare una nuova frase, il sistema controlla se nel buffer rimane più materiale audio del tempo specificato da buffer_threshold_seconds. In caso affermativo, recupera un'altra frase dal generatore di testo, assumendo che possa recuperare e sintetizzare questa nuova frase entro la finestra temporale fornita dall'audio rimanente nel buffer. Questo processo consente al motore di sintesi vocale di avere più contesto per una migliore sintesi, migliorando l'esperienza utente.

      +
    • +
    +

    Un valore più alto assicura che ci sia più audio pre-bufferizzato, riducendo la probabilità di silenzi o interruzioni durante la riproduzione. Se si verificano interruzioni o pause, considera di aumentare questo valore.

    +
    minimum_sentence_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Imposta la lunghezza minima in caratteri per considerare una stringa come una frase da sintetizzare. Questo influisce su come vengono elaborati e riprodotti i chunk di testo.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Il numero minimo di caratteri richiesti per il primo frammento di frase prima della produzione.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando abilitato, registra i chunk di testo mentre vengono sintetizzati in audio. Utile per il controllo e il debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Se True, reimposta il testo generato prima dell'elaborazione.
    • +
    +
    output_wavfile (str)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Se impostato, salva l'audio nel file WAV specificato.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata dopo che un singolo frammento di frase è stato sintetizzato.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata prima che un singolo frammento di frase venga sintetizzato.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Funzione di callback che viene chiamata quando un singolo chunk audio è pronto.
    • +
    +
    tokenizer (str)
    +
      +
    • Predefinito: "nltk"
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi. Attualmente supporta "nltk" e "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione personalizzata che tokenizza le frasi dal testo di input. Puoi fornire il tuo tokenizer leggero se non sei soddisfatto di nltk e stanza. Dovrebbe prendere il testo come stringa e restituire le frasi divise come lista di stringhe.
    • +
    +
    language (str)
    +
      +
    • Predefinito: "en"
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +
    context_size (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Il numero di caratteri utilizzati per stabilire il contesto per il rilevamento dei confini della frase. Un contesto più ampio migliora la precisione nel rilevare i confini delle frasi.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Dimensione del contesto aggiuntiva per guardare avanti durante il rilevamento dei confini delle frasi.
    • +
    +
    muted (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Se True, disabilita la riproduzione audio attraverso gli altoparlanti locali. Utile quando si desidera sintetizzare su file o elaborare chunk audio senza riprodurli.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Predefinito: ".?!;:,\n…)]}。-"
    • +
    • Descrizione: Una stringa di caratteri che sono considerati delimitatori di frase.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Predefinito: 15
    • +
    • Descrizione: Il numero di parole dopo il quale viene forzata la produzione del primo frammento di frase.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/it/contributing/index.html b/es/it/contributing/index.html new file mode 100755 index 0000000..8eb0972 --- /dev/null +++ b/es/it/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuire a RealtimeTTS

    +

    Accogliamo con favore i contributi a RealtimeTTS! Ecco alcuni modi in cui puoi contribuire:

    +
      +
    1. +

      Segnalazione di bug: Se trovi un bug, apri un problema sul nostro repository GitHub.

      +
    2. +
    3. +

      Suggerendo Miglioramenti: Hai idee per nuove funzionalità o miglioramenti? Ci piacerebbe sentirli! Apri un problema per suggerire miglioramenti.

      +
    4. +
    5. +

      Contributi del codice: vuoi aggiungere una nuova funzionalità o correggere un bug? Grande! Si prega di seguire questi passaggi:

      +
    6. +
    7. Forchetta il repository
    8. +
    9. Crea un nuovo ramo per la tua funzione
    10. +
    11. Apporta le tue modifiche
    12. +
    13. +

      Invia una richiesta pull con una chiara descrizione delle modifiche

      +
    14. +
    15. +

      Documentazione: aiutaci a migliorare la nostra documentazione correggendo errori di battitura, aggiungendo esempi o chiarendo sezioni confuse.

      +
    16. +
    17. +

      Aggiunta di nuovi motori: se si desidera aggiungere il supporto per un nuovo motore TTS, aprire prima un problema per discutere l'implementazione.

      +
    18. +
    +

    Grazie per aver contribuito a rendere RealtimeTTS migliore!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/it/faq/index.html b/es/it/faq/index.html new file mode 100755 index 0000000..17b35a0 --- /dev/null +++ b/es/it/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Domande frequenti

    +

    Per le risposte alle domande più frequenti su RealtimeTTS, fare riferimento alla nostra [pagina FAQ su GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Questa pagina tratta vari argomenti tra cui

    +
      +
    • Utilizzo di diversi motori TTS
    • +
    • Gestione del testo multilingue
    • +
    • Ottimizzazione delle prestazioni
    • +
    • Risoluzione dei problemi comuni
    • +
    +

    Per informazioni più dettagliate, visitare il link sopra.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/it/index.html b/es/it/index.html new file mode 100755 index 0000000..a1df5fb --- /dev/null +++ b/es/it/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Libreria text-to-speech facile da usare e a bassa latenza per applicazioni in tempo reale

    +

    Informazioni sul progetto

    +

    RealtimeTTS è una libreria text-to-speech (TTS) all'avanguardia progettata per applicazioni in tempo reale. Si distingue per la sua capacità di convertire rapidamente i flussi di testo in output uditivo di alta qualità con una latenza minima.

    +

    Caratteristiche principali

    +
      +
    • Bassa latenza: conversione testo-discorso quasi istantanea, compatibile con le uscite LLM
    • +
    • Audio di alta qualità: generi un discorso chiaro e dal suono naturale
    • +
    • Multiplo supporto motore TTS: supportoa OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS e System TTS
    • +
    • Multilingue
    • +
    • Robust and Reliable: assicurazione un divertimento continuo attraverso un meccanismo di ripiego, passa a motori alternativi in caso di interdizioni garantite prestazioni e affidabilità costanti
    • +
    +

    Per istruzioni di installazione, esempi di utilizzo e ritorno API, navigare nella documentazione utilizzando la barra laterale.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/it/installation/index.html b/es/it/installation/index.html new file mode 100755 index 0000000..6176ff0 --- /dev/null +++ b/es/it/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Italiano

    + +
    +

    Nota: L'installazione base con pip install realtimetts non è più raccomandata, utilizzare invece pip install realtimetts[all].

    +
    +

    La libreria RealtimeTTS fornisce opzioni di installazione per varie dipendenze in base al tuo caso d'uso. Ecco i diversi modi in cui puoi installare RealtimeTTS in base alle tue necessità:

    +

    Installazione Completa

    +

    Per installare RealtimeTTS con supporto per tutti i motori TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Installazione Personalizzata

    +

    RealtimeTTS permette un'installazione personalizzata con installazioni minime delle librerie. Ecco le opzioni disponibili: +- all: Installazione completa con tutti i motori supportati. +- system: Include le capacità TTS specifiche del sistema (es. pyttsx3). +- azure: Aggiunge il supporto Azure Cognitive Services Speech. +- elevenlabs: Include l'integrazione con l'API ElevenLabs. +- openai: Per i servizi vocali OpenAI. +- gtts: Supporto Google Text-to-Speech. +- coqui: Installa il motore Coqui TTS. +- minimal: Installa solo i requisiti base senza motore (necessario solo se si vuole sviluppare un proprio motore)

    +

    Se vuoi installare RealtimeTTS solo per l'uso locale di Coqui TTS neurale, dovresti utilizzare:

    +
    pip install realtimetts[coqui]
    +
    +

    Per esempio, se vuoi installare RealtimeTTS solo con il supporto per Azure Cognitive Services Speech, ElevenLabs e OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installazione in Ambiente Virtuale

    +

    Per chi vuole eseguire un'installazione completa all'interno di un ambiente virtuale, seguire questi passaggi:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Maggiori informazioni sull'installazione CUDA.

    +

    Requisiti dei Motori

    +

    I diversi motori supportati da RealtimeTTS hanno requisiti unici. Assicurati di soddisfare questi requisiti in base al motore che scegli.

    +

    SystemEngine

    +

    Il SystemEngine funziona subito con le capacità TTS integrate nel tuo sistema. Non è necessaria alcuna configurazione aggiuntiva.

    +

    GTTSEngine

    +

    Il GTTSEngine funziona subito utilizzando l'API text-to-speech di Google Translate. Non è necessaria alcuna configurazione aggiuntiva.

    +

    OpenAIEngine

    +

    Per utilizzare OpenAIEngine: +- impostare la variabile d'ambiente OPENAI_API_KEY +- installare ffmpeg (vedi installazione CUDA punto 3)

    +

    AzureEngine

    +

    Per utilizzare AzureEngine, avrai bisogno di: +- Chiave API Microsoft Azure Text-to-Speech (fornita tramite il parametro del costruttore AzureEngine "speech_key" o nella variabile d'ambiente AZURE_SPEECH_KEY) +- Regione del servizio Microsoft Azure.

    +

    Assicurati di avere queste credenziali disponibili e configurate correttamente quando inizializzi AzureEngine.

    +

    ElevenlabsEngine

    +

    Per ElevenlabsEngine, hai bisogno di: +- Chiave API Elevenlabs (fornita tramite il parametro del costruttore ElevenlabsEngine "api_key" o nella variabile d'ambiente ELEVENLABS_API_KEY) +- mpv installato sul tuo sistema (essenziale per lo streaming audio mpeg, Elevenlabs fornisce solo mpeg).

    +

    🔹 Installazione di mpv: + - macOS: + brew install mpv

    +
      +
    • Linux e Windows: Visita mpv.io per le istruzioni di installazione.
    • +
    +

    CoquiEngine

    +

    Fornisce TTS neurale locale di alta qualità con clonazione vocale.

    +

    Scarica prima un modello TTS neurale. Nella maggior parte dei casi sarà abbastanza veloce per il tempo reale utilizzando la sintesi GPU. Richiede circa 4-5 GB di VRAM.

    +
      +
    • per clonare una voce inviare il nome del file di un file wave contenente la voce sorgente come parametro "voice" al costruttore CoquiEngine
    • +
    • la clonazione vocale funziona meglio con un file WAV mono 16bit a 22050 Hz contenente un breve campione (circa 5-30 sec)
    • +
    +

    Sulla maggior parte dei sistemi sarà necessario il supporto GPU per funzionare abbastanza velocemente per il tempo reale, altrimenti si verificheranno interruzioni.

    +

    Installazione CUDA

    +

    Questi passaggi sono raccomandati per chi richiede migliori prestazioni e ha una GPU NVIDIA compatibile.

    +
    +

    Nota: per verificare se la tua GPU NVIDIA supporta CUDA, visita la lista ufficiale delle GPU CUDA.

    +
    +

    Per utilizzare torch con supporto via CUDA segui questi passaggi:

    +
    +

    Nota: le installazioni più recenti di pytorch potrebbero (non verificato) non necessitare più dell'installazione del Toolkit (e possibilmente cuDNN).

    +
    +
      +
    1. +

      Installa NVIDIA CUDA Toolkit: + Per esempio, per installare il Toolkit 12.X, per favore

      +
        +
      • Visita NVIDIA CUDA Downloads.
      • +
      • Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo.
      • +
      • Scarica e installa il software.
      • +
      +

      o per installare il Toolkit 11.8, per favore +- Visita NVIDIA CUDA Toolkit Archive. +- Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo. +- Scarica e installa il software.

      +
    2. +
    3. +

      Installa NVIDIA cuDNN:

      +

      Per esempio, per installare cuDNN 8.7.0 per CUDA 11.x per favore +- Visita NVIDIA cuDNN Archive. +- Clicca su "Download cuDNN v8.7.0 (28 Novembre 2022), per CUDA 11.x". +- Scarica e installa il software.

      +
    4. +
    5. +

      Installa ffmpeg:

      +

      Puoi scaricare un installer per il tuo sistema operativo dal sito web ffmpeg.

      +

      Oppure usa un gestore pacchetti:

      +
        +
      • +

        Su Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Su Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Su MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Su Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Su Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installa PyTorch con supporto CUDA:

      +

      Per aggiornare la tua installazione PyTorch per abilitare il supporto GPU con CUDA, segui queste istruzioni basate sulla tua versione CUDA specifica. Questo è utile se desideri migliorare le prestazioni di RealtimeSTT con le capacità CUDA.

      +
        +
      • +

        Per CUDA 11.8:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 11.8, usa i seguenti comandi:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Per CUDA 12.X:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 12.X, esegui quanto segue:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Sostituisci 2.3.1 con la versione di PyTorch che corrisponde al tuo sistema e requisiti.

      +
    8. +
    9. +

      Fix per risolvere problemi di compatibilità: + Se riscontri problemi di compatibilità delle librerie, prova a impostare queste librerie a versioni fisse:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/it/usage/index.html b/es/it/usage/index.html new file mode 100755 index 0000000..42c696f --- /dev/null +++ b/es/it/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Utilizzo

    +

    Avvio Rapido

    +

    Ecco un esempio di utilizzo base:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # sostituisci con il tuo motore TTS
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Inserimento del Testo

    +

    Puoi inserire singole stringhe:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oppure puoi inserire generatori e iteratori di caratteri per lo streaming in tempo reale:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Riproduzione

    +

    In modo asincrono:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    In modo sincrono:

    +
    stream.play()
    +
    +

    Test della Libreria

    +

    La sottodirectory test contiene una serie di script per aiutarti a valutare e comprendere le capacità della libreria RealtimeTTS.

    +

    Nota che la maggior parte dei test si basa ancora sulla "vecchia" API OpenAI (<1.0.0). L'utilizzo della nuova API OpenAI è dimostrato in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descrizione: Una dimostrazione stile "hello world" dell'utilizzo più semplice della libreria.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descrizione: Una dimostrazione completa che mostra la maggior parte delle funzionalità fornite dalla libreria.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descrizione: Test del motore TTS coqui locale.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Traduzioni in tempo reale in sei lingue diverse.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Interfaccia utente vocale attivata da parola chiave per l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dipendenze: Esegui pip install openai keyboard realtimestt.
      • +
      • Descrizione: Scegli il motore TTS e la voce prima di iniziare la conversazione con l'IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Un talkbot base in 20 righe di codice.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Semplice dimostrazione di come integrare la libreria con i modelli linguistici di grandi dimensioni (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Mostra i callback e ti permette di verificare i tempi di latenza in un ambiente applicativo reale.
      • +
      +
    • +
    +

    Pausa, Ripresa e Stop

    +

    Metti in pausa lo stream audio:

    +
    stream.pause()
    +
    +

    Riprendi uno stream in pausa:

    +
    stream.resume()
    +
    +

    Ferma immediatamente lo stream:

    +
    stream.stop()
    +
    +

    Requisiti Spiegati

    +
      +
    • Versione Python:
    • +
    • Richiesto: Python >= 3.9, < 3.13
    • +
    • +

      Motivo: La libreria dipende dalla libreria GitHub "TTS" di coqui, che richiede versioni Python in questo intervallo.

      +
    • +
    • +

      PyAudio: per creare uno stream audio di output

      +
    • +
    • +

      stream2sentence: per dividere il flusso di testo in ingresso in frasi

      +
    • +
    • +

      pyttsx3: Motore di conversione text-to-speech di sistema

      +
    • +
    • +

      pydub: per convertire i formati dei chunk audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motore di conversione text-to-speech di Azure

      +
    • +
    • +

      elevenlabs: Motore di conversione text-to-speech di Elevenlabs

      +
    • +
    • +

      coqui-TTS: Libreria text-to-speech XTTS di Coqui per TTS neurale locale di alta qualità

      +
    • +
    +

    Un ringraziamento speciale a Idiap Research Institute per il mantenimento di un fork di coqui tts.

    +
      +
    • +

      openai: per interagire con l'API TTS di OpenAI

      +
    • +
    • +

      gtts: Conversione text-to-speech di Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ja/api/index.html b/es/ja/api/index.html new file mode 100755 index 0000000..490406a --- /dev/null +++ b/es/ja/api/index.html @@ -0,0 +1,2814 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    日本語

    + +

    設定

    +

    TextToAudioStreamの初期化パラメータ

    +

    TextToAudioStreamクラスを初期化する際、その動作をカスタマイズするための様々なオプションがあります。利用可能なパラメータは以下の通りです:

    +

    engine (BaseEngine)

    +
      +
    • : BaseEngine
    • +
    • 必須: はい
    • +
    • 説明: テキストから音声への合成を担当する基盤エンジンです。音声合成を有効にするには、BaseEngineまたはそのサブクラスのインスタンスを提供する必要があります。
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが開始されたときにトリガーされるオプションのコールバック関数です。セットアップやログ記録に使用できます。
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが終了したときに実行されるオプションのコールバック関数です。クリーンアップタスクやログ記録に使用できます。
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが開始されたときに呼び出されるオプションのコールバック関数です。UIの更新やイベントログに役立ちます。
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが停止したときに呼び出されるオプションのコールバック関数です。リソースのクリーンアップや後処理タスクに最適です。
    • +
    +

    on_character (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 一文字が処理されるたびに呼び出されるオプションのコールバック関数です。
    • +
    +

    output_device_index (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: None
    • +
    • 説明: 使用する出力デバイスのインデックスを指定します。Noneの場合はデフォルトデバイスを使用します。
    • +
    +

    tokenizer (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: nltk
    • +
    • 説明: 文分割に使用するトークナイザー(現在は"nltk"と"stanza"がサポートされています)。
    • +
    +

    language (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: en
    • +
    • 説明: 文分割に使用する言語。
    • +
    +

    muted (bool)

    +
      +
    • : 真偽値
    • +
    • 必須: いいえ
    • +
    • デフォルト値: False
    • +
    • 説明: グローバルなミュートパラメータ。Trueの場合、pyAudioストリームは開かれません。ローカルスピーカーを介した音声再生を無効にし(ファイルへの合成や音声チャンクの処理を行う場合)、playパラメータのミュート設定を上書きします。
    • +
    +

    level (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: logging.WARNING
    • +
    • 説明: 内部ロガーのログレベルを設定します。Pythonの組み込みloggingモジュールの任意の整数定数を使用できます。
    • +
    +

    使用例:

    +
    engine = YourEngine()  # あなたのエンジンで置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +```python
    +engine = YourEngine()  # あなたのエンジンに置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    メソッド

    +

    playplay_async

    +

    これらのメソッドはテキストから音声への合成と音声ストリームの再生を担当します。playはブロッキング関数である一方、play_asyncは別のスレッドで実行され、他の操作を続行できるという違いがあります。

    +
    パラメータ:
    +
    fast_sentence_fragment (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueに設定すると、文章の断片をより速く生成して再生することを優先します。レイテンシーが重要なアプリケーションに有用です。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、最初の文だけでなく、すべての文に対して高速な文章断片処理を適用します。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、単一の文章断片ではなく、複数の文章断片を生成することができます。
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • デフォルト値: 0.0
    • +
    • +

      説明: 音声再生の滑らかさと連続性に影響を与えるバッファリングのしきい値を秒単位で指定します。

      +
    • +
    • +

      動作原理: 新しい文を合成する前に、システムはバッファにbuffer_threshold_secondsで指定された時間以上の音声材料が残っているかチェックします。残っている場合、テキストジェネレータから別の文を取得します。これは、バッファに残っている音声の時間枠内で新しい文を取得して合成できると仮定しています。このプロセスにより、テキスト音声変換エンジンがより良い合成のためのコンテキストを持つことができ、ユーザー体験を向上させます。

      +
    • +
    +

    より高い値を設定すると、より多くの音声がプリバッファされ、再生中の無音や隙間が発生する可能性が減少します。途切れや一時停止が発生する場合は、この値を増やすことを検討してください。

    +
    minimum_sentence_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 合成する文として扱う文字列の最小文字数を設定します。これはテキストチャンクの処理と再生方法に影響します。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 最初の文章断片を生成する前に必要な最小文字数です。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: 有効にすると、音声に合成されるテキストチャンクをログに記録します。監査やデバッグに役立ちます。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueの場合、処理前に生成されたテキストをリセットします。
    • +
    +
    output_wavfile (str)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 設定すると、指定されたWAVファイルに音声を保存します。
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成された後に呼び出されるコールバック関数です。
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成される前に呼び出されるコールバック関数です。
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の音声チャンクが準備できたときに呼び出されるコールバック関数です。
    • +
    +
    tokenizer (str)
    +
      +
    • デフォルト値: "nltk"
    • +
    • 説明: 文分割に使用するトークナイザーです。現在は"nltk"と"stanza"をサポートしています。
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 入力テキストから文を分割するカスタム関数です。nltkやstanzaに満足できない場合、独自の軽量トークナイザーを提供できます。テキストを文字列として受け取り、分割された文を文字列のリストとして返す必要があります。
    • +
    +
    language (str)
    +
      +
    • デフォルト値: "en"
    • +
    • 説明: 文分割に使用する言語です。
    • +
    +
    context_size (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界検出のために使用される文字数です。より大きなコンテキストは文境界の検出精度を向上させます。
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界を検出する際の先読みのための追加のコンテキストサイズです。
    • +
    +
    muted (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueの場合、ローカルスピーカーを介した音声再生を無効にします。ファイルに合成したり、音声チャンクを再生せずに処理したりする場合に有用です。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • デフォルト値: ".?!;:,\n…)]}。-"
    • +
    • 説明: 文の区切り文字として扱われる文字の文字列です。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • デフォルト値: 15
    • +
    • 説明: 最初の文章断片を生成する必要がある単語数です。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ja/contributing/index.html b/es/ja/contributing/index.html new file mode 100755 index 0000000..b540f1d --- /dev/null +++ b/es/ja/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTSへの貢献

    +

    RealtimeTTSへの貢献を歓迎します! ここにあなたが貢献できるいくつかの方法があります:

    +
      +
    1. +

      バグの報告: バグを見つけた場合は、GitHubリポジトリにイシューを開いてください。

      +
    2. +
    3. +

      改善提案: 新機能や改善のアイデアはありますか? ぜひお聞かせください! 改善提案のために問題を開いてください。

      +
    4. +
    5. +

      コードの貢献: 新しい機能を追加したり、バグを修正したりしたいですか? すごい! これらの手順に従ってください。

      +
    6. +
    7. リポジトリをフォークする
    8. +
    9. 機能のための新しいブランチを作成する
    10. +
    11. 変更を加える
    12. +
    13. +

      変更内容を明確に説明したプルリクエストを提出してください

      +
    14. +
    15. +

      ドキュメント: タイポを修正したり、例を追加したり、わかりにくい部分を明確にすることで、私たちのドキュメントを改善する手助けをしてください。

      +
    16. +
    17. +

      新しいエンジンの追加: 新しいTTSエンジンのサポートを追加したい場合は、まず実装について議論するためにイシューを開いてください。

      +
    18. +
    +

    RealtimeTTSをより良くするために協力していただきありがとうございます!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ja/faq/index.html b/es/ja/faq/index.html new file mode 100755 index 0000000..ee32178 --- /dev/null +++ b/es/ja/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    よくある質問

    +

    RealtimeTTSに関するよくある質問の回答については、GitHubのFAQページをご覧ください。

    +

    このページでは、次のようなさまざまなトピックを取り上げています。

    +
      +
    • 異なるTTSエンジンの使用
    • +
    • 多言語テキストの取り扱い
    • +
    • パフォーマンスの最適化
    • +
    • 一般的な問題のトラブルシューティング
    • +
    +

    詳細な情報については、上記のリンクをご覧ください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ja/index.html b/es/ja/index.html new file mode 100755 index 0000000..24e5ded --- /dev/null +++ b/es/ja/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    リアルタイムTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    リアルタイムアプリケーション向けの使いやすく、低遅延のテキスト読み上げライブラリ

    +

    プロジェクトについて

    +

    RealtimeTTSは、リアルタイムアプリケーション向けに設計された最先端のテキスト読み上げ(TTS)ライブラリです。 それは、テキストストリームを迅速に高品質な音声出力に変換する能力において際立っています。

    +

    主な特徴

    +
      +
    • 低遅延: ほぼ瞬時にテキストを音声に変換し、LLM出力と互換性があります
    • +
    • 高品質な音声: 明瞭で自然な音声を生成します
    • +
    • 複数のTTSエンジンサポート: OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS、System TTSをサポートします
    • +
    • 多言語対応
    • +
    • 堅牢で信頼性が高い: フォールバックメカニズムを通じて継続的な運用を保証し、障害が発生した場合には代替エンジンに切り替えて、一貫したパフォーマンスと信頼性を確保します。
    • +
    +

    インストール手順、使用例、およびAPIリファレンスについては、サイドバーを使用してドキュメントを参照してください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ja/installation/index.html b/es/ja/installation/index.html new file mode 100755 index 0000000..c5b4d5c --- /dev/null +++ b/es/ja/installation/index.html @@ -0,0 +1,2155 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    日本語

    + +
    +

    注意: pip install realtimetts での基本インストールは推奨されなくなりました。代わりに pip install realtimetts[all] を使用してください。

    +
    +

    RealtimeTTSライブラリは、あなたのユースケースに応じたさまざまな依存関係のインストールオプションを提供します。 ニーズに応じてRealtimeTTSをインストールする方法はいくつかあります:

    +

    フルインストール

    +

    すべてのTTSエンジンに対応したRealtimeTTSをインストールするには:

    +
    pip install -U realtimetts[all]
    +
    +

    カスタムインストール

    +

    RealtimeTTSは、最小限のライブラリインストールでカスタムインストールを可能にします。 こちらが利用可能なオプションです。 +- すべて: すべてのエンジンがサポートされた完全なインストール。 +- システム: システム固有のTTS機能を含む (e.g., pyttsx3). +- azure: Azure Cognitive Services Speechサポートを追加します。 +- elevenlabs: ElevenLabs APIとの統合が含まれています。 +- openai: OpenAIの音声サービス用。 +- gtts: Google テキスト読み上げサポート。 +- coqui: Coqui TTSエンジンをインストールします。 +- minimal: エンジンなしで基本要件のみをインストール (only needed if you want to develop an own engine)

    +

    ローカルの神経系Coqui TTSでのみRealtimeTTSをインストールしたい場合は、次のようにしてください:

    +
    pip install realtimetts[coqui]
    +
    +

    例えば、Azure Cognitive Services Speech、ElevenLabs、OpenAIのサポートのみでRealtimeTTSをインストールしたい場合:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    仮想環境のインストール

    +

    仮想環境内で完全なインストールを行いたい方は、以下の手順に従ってください。

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.
    +```バット
    +python.exe -m pip install --pipをアップグレード
    +pip install -U realtimetts[all]
    +テキストを翻訳してください: ```
    +
    +[CUDAインストール](#cuda-installation)に関する詳細情報。
    +
    +## エンジン要件
    +
    +RealtimeTTSがサポートする異なるエンジンには、それぞれ独自の要件があります。 選択したエンジンに基づいてこれらの要件を満たすようにしてください。
    +
    +### システムエンジン
    +`SystemEngine`は、システムに内蔵されたTTS機能とそのまま使えます。 追加の設定は必要ありません。
    +
    +### GTTSEngine
    +`GTTSEngine`は、Google翻訳のテキスト読み上げAPIを使用して、すぐに使える状態で動作します。 追加の設定は必要ありません。
    +
    +### OpenAIエンジン
    +`OpenAIEngine`を使用するには:
    +- 環境変数 OPENAI_API_KEY を設定する
    +- ffmpeg をインストールする([CUDA インストール](#cuda-installation)の3番目のポイントを参照)
    +
    +### AzureEngine
    +`AzureEngine`を使用するには、次のものが必要です:
    +- Microsoft Azure Text-to-Speech APIキー(AzureEngineコンストラクタのパラメータ「speech_key」または環境変数AZURE_SPEECH_KEYで提供されます)
    +- マイクロソフトAzureサービスリージョン。
    +
    +`AzureEngine`を初期化する際に、これらの資格情報が利用可能で正しく設定されていることを確認してください。
    +
    +### ElevenlabsEngine
    +`ElevenlabsEngine`には、次のものが必要です:
    +- Elevenlabs APIキー(ElevenlabsEngineコンストラクタのパラメータ「api_key」または環境変数ELEVENLABS_API_KEYで提供されます)
    +- システムに`mpv`がインストールされています (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).
    +
    +  🔹 **`mpv`のインストール:**
    +  - **macOS**:
    +    ```plaintext
    +brew install mpv
    +
    +
      +
    • LinuxおよびWindows: インストール手順についてはmpv.ioをご覧ください。
    • +
    +

    CoquiEngine

    +

    高品質でローカルなニューラルTTSをボイスクローン機能付きで提供します。

    +

    まず、ニューラルTTSモデルをダウンロードします。 ほとんどの場合、GPU合成を使用すればリアルタイムで十分な速度になります。 約4〜5GBのVRAMが必要です。

    +
      +
    • 声をクローンするには、ソース音声を含むWAVファイルのファイル名を「voice」パラメータとしてCoquiEngineコンストラクタに提出してください。
    • +
    • 声のクローンは、短い(約5〜30秒)サンプルを含む22050 Hzモノ16ビットWAVファイルで最も効果的です。
    • +
    +

    ほとんどのシステムでは、リアルタイムで十分な速度を出すためにGPUサポートが必要です。さもなければ、カクつきが発生します。

    +

    CUDAのインストール

    +

    これらの手順は、より良いパフォーマンスを必要とし、互換性のあるNVIDIA GPUを持っている方に推奨されます。

    +
    +

    注意: お使いのNVIDIA GPUがCUDAをサポートしているか確認するには、公式CUDA GPUリストをご覧ください。

    +
    +

    CUDAをサポートするTorchを使用するには、次の手順に従ってください。

    +
    +

    注意: 新しいPyTorchのインストールでは、かもしれない(未確認)がToolkit(およびおそらくcuDNN)のインストールを必要としないかもしれません。

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkitをインストールする: + 例えば、Toolkit 12.Xをインストールするには、

      +
        +
      • NVIDIA CUDA Downloadsを訪れてください。
      • +
      • オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。
      • +
      +

      または、Toolkit 11.8をインストールするには、 +- NVIDIA CUDA Toolkit Archiveをご覧ください。 +- オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    2. +
    3. +

      NVIDIA cuDNNをインストールする:

      +

      例えば、CUDA 11.x用のcuDNN 8.7.0をインストールするには、次の手順を行ってください。 +- NVIDIA cuDNNアーカイブを訪問してください。 +「Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x」をクリックしてください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    4. +
    5. +

      ffmpegをインストールする:

      +

      ffmpegウェブサイトからお使いのOS用のインストーラーをダウンロードできます。

      +

      またはパッケージマネージャーを使用してください:

      +
        +
      • +

        UbuntuまたはDebianの場合: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linuxで: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrewを使用してMacOSで (https://brew.sh/): + ```plaintext +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolateyを使用してWindowsで** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **Scoopを使用してWindowsで** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    scoop install ffmpeg
    +
    +
    
    +4. **CUDAサポート付きのPyTorchをインストールする**:
    +
    +    CUDAでGPUサポートを有効にするためにPyTorchのインストールをアップグレードするには、特定のCUDAバージョンに基づいてこれらの指示に従ってください。 これは、CUDA機能を使用してRealtimeSTTのパフォーマンスを向上させたい場合に役立ちます。
    +
    +    - **CUDA 11.8の場合:**
    +
    +        PyTorchとTorchaudioをCUDA 11.8に対応させるために、次のコマンドを使用してください。
    +
    +        ```plaintext
    +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        テキストを翻訳する: ```
    +
    +- **CUDA 12.Xの場合:**
    +
    +
    +    PyTorchとTorchaudioをCUDA 12.Xに対応させるために、次のコマンドを実行してください。
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +テキストを翻訳する:

    +
    `2.3.1` をあなたのシステムと要件に合ったPyTorchのバージョンに置き換えてください。
    +
    +
      +
    1. 互換性の問題を解決するための修正: + ライブラリの互換性の問題が発生した場合は、これらのライブラリを固定バージョンに設定してみてください。
    2. +
    +

    テキストを翻訳する: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ja/usage/index.html b/es/ja/usage/index.html new file mode 100755 index 0000000..4b3a0a3 --- /dev/null +++ b/es/ja/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    使用

    +

    クイックスタート

    +

    基本的な使用例は次のとおりです。

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # あなたのTTSエンジンに置き換えてください +ストリーム = TextToAudioStream(engine) +stream.feed("こんにちは、世界!") 今日はどうですか? +stream.play_async()

    +

    フィードテキスト

    +

    個別の文字列を入力できます:

    +
    stream.feed("こんにちは、これは文です。")
    +
    +

    または、リアルタイムストリーミングのためにジェネレーターやキャラクターイテレーターを使用することもできます。

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```チャット完了。作成(
    +        モデル="gpt-3.5-turbo",
    +        メッセージ=[{"役割": "ユーザー", "内容": プロンプト}],
    +        ストリーム=True
    +    ):
    +        もし (text_chunk := chunk["choices"]テキストを翻訳してください。["デルタ"].get("content")) は None ではない:
    +            テキストチャンクを生成
    +
    +テキストストリーム = 書き込み("A three-sentence relaxing speech.")
    +
    +ストリームにテキストストリームをフィードする
    +
    +```python
    +char_iterator = iter("文字を1文字ずつストリーミングします。")
    +stream.feed(char_iterator)
    +
    +

    再生

    +

    非同期で:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同時に:

    +
    stream.play()
    +
    +

    ライブラリのテスト

    +

    テストサブディレクトリには、RealtimeTTSライブラリの機能を評価し理解するための一連のスクリプトが含まれています。

    +

    ほとんどのテストはまだ「古い」OpenAI API(<1.0.0)に依存していることに注意してください。 新しいOpenAI APIの使用方法はopenai_1.0_test.pyで示されています。

    +
      +
    • +

      simple_test.py

      +
        +
      • 説明: ライブラリの最も簡単な使い方を示す「ハローワールド」スタイルのデモ。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 説明: ライブラリが提供するほとんどの機能を紹介する包括的なデモ。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 説明: ローカルのcoqui TTSエンジンのテスト。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 6つの異なる言語へのリアルタイム翻訳。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依存関係: pip install openai realtimestt を実行してください。
      • +
      • 説明: ウェイクワードがアクティブになり、OpenAI APIへの音声ベースのユーザーインターフェース。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依存関係: pip install openai keyboard realtimesttを実行してください。
      • +
      • 説明: AI会話を始める前に、TTSエンジンと声を選択してください。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 20行のコードで作る基本的なトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: ライブラリを大規模言語モデルに統合する簡単なデモ (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: コールバックを紹介し、実際のアプリケーション環境でレイテンシー時間を確認できるようにします。
      • +
      +
    • +
    +

    一時停止、再開、停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止中のストリームを再開する:

    +
    stream.resume()
    +
    +

    すぐに配信を停止してください。

    +
    stream.stop()
    +
    +

    要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必要条件: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリは、coquiのGitHubライブラリ「TTS」に依存しており、これにはこの範囲のPythonバージョンが必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するために

      +
    • +
    • +

      stream2sentence: 入力されたテキストストリームを文に分割する

      +
    • +
    • +

      pyttsx3: システム音声合成エンジン

      +
    • +
    • +

      pydub: オーディオチャンクのフォーマットを変換するために

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure テキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabs テキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTSのためのCoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap Research Institutecoqui ttsのフォークを維持していることに感謝します。

    +
      +
    • +

      openai: OpenAIのTTS APIと対話するために

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ko/api/index.html b/es/ko/api/index.html new file mode 100755 index 0000000..0f4e7a5 --- /dev/null +++ b/es/ko/api/index.html @@ -0,0 +1,2792 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    한국어

    + +

    구성

    +

    TextToAudioStream 초기화 매개변수

    +

    TextToAudioStream 클래스를 초기화할 때, 그 동작을 사용자 정의할 수 있는 다양한 옵션이 있습니다. 사용 가능한 매개변수는 다음과 같습니다:

    +

    engine (BaseEngine)

    +
      +
    • 유형: BaseEngine
    • +
    • 필수: 네 텍스트를 오디오로 변환하는 데 책임이 있는 기본 엔진. 오디오 합성을 활성화하려면 BaseEngine 또는 그 하위 클래스의 인스턴스를 제공해야 합니다.
    • +
    +

    on_text_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 시작될 때 호출됩니다. 필요한 설정이나 로깅에 사용하세요.
    • +
    +

    on_text_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 끝날 때 활성화됩니다. 이것을 정리 작업이나 로깅에 사용할 수 있습니다.
    • +
    +

    on_audio_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 시작될 때 호출됩니다. UI 업데이트나 이벤트 로깅에 유용합니다.
    • +
    +

    on_audio_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 중지될 때 호출됩니다. 리소스 정리나 후처리 작업에 적합합니다.
    • +
    +

    on_character (callable)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 단일 문자가 처리될 때 호출됩니다.
    • +
    +

    output_device_index (int)

    +
      +
    • 유형: 정수
    • +
    • 필수: 아니요 사용할 출력 장치 인덱스를 지정합니다. 아무도 기본 장치를 사용하지 않습니다.
    • +
    +

    tokenizer (string)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요
    • +
    • 기본값: nltk
    • +
    • 설명: 문장 분할에 사용할 토크나이저 (currently "nltk" and "stanza" are supported).
    • +
    +

    language (문자열)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요 문장 분할에 사용할 언어.
    • +
    +

    muted (bool)

    +
      +
    • 유형: Bool
    • +
    • 필수: 아니오
    • +
    • 기본값: False
    • +
    • 설명: 전역 음소거 매개변수. 참이면, pyAudio 스트림이 열리지 않습니다. 로컬 스피커를 통한 오디오 재생을 비활성화합니다 (파일로 합성하거나 오디오 청크를 처리하려는 경우) 및 재생 매개변수의 음소거 설정을 무시합니다.
    • +
    +

    level (int)

    +
      +
    • Type: 정수
    • +
    • Required: 아니요
    • +
    • 기본값: logging.WARNING
    • +
    • 설명: 내부 로거의 로깅 수준을 설정합니다. 이는 Python의 내장 logging 모듈에서 제공하는 정수 상수일 수 있습니다.
    • +
    +

    예시 사용법:

    +
    engine = YourEngine()  # 엔진을 당신의 엔진으로 대체하세요
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    방법

    +

    playplay_async

    +

    이 방법들은 텍스트-오디오 합성을 실행하고 오디오 스트림을 재생하는 역할을 합니다. 차이점은 play가 블로킹 함수인 반면, play_async는 별도의 스레드에서 실행되어 다른 작업이 진행될 수 있다는 것입니다.

    +
    매개변수:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: True로 설정하면, 이 방법은 속도를 우선시하여 문장 조각을 더 빨리 생성하고 재생합니다. 이는 지연 시간이 중요한 애플리케이션에 유용합니다.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 첫 번째 문장뿐만 아니라 모든 문장에 대해 빠른 문장 조각 처리를 적용합니다.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 단일 문장 조각 대신 여러 문장 조각을 생성할 수 있습니다.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • 기본값: 0.0
    • +
    • +

      설명: 버퍼링 임계값을 초 단위로 지정하며, 이는 오디오 재생의 부드러움과 연속성에 영향을 미칩니다.

      +
    • +
    • +

      작동 방식: 새로운 문장을 합성하기 전에 시스템은 버퍼에 남아 있는 오디오 자료가 buffer_threshold_seconds로 지정된 시간보다 더 많은지 확인합니다. 그렇다면, 텍스트 생성기에서 또 다른 문장을 가져오는데, 이는 버퍼에 남아 있는 오디오의 시간 창 내에서 이 새로운 문장을 가져오고 합성할 수 있다고 가정합니다. 이 과정은 텍스트 음성 변환 엔진이 더 나은 합성을 위해 더 많은 맥락을 갖도록 하여 사용자 경험을 향상시킵니다.

      +
    • +
    +

    더 높은 값은 더 많은 미리 버퍼링된 오디오를 보장하여 재생 중 침묵이나 간격이 발생할 가능성을 줄여줍니다. 중단이나 일시 정지가 발생하면 이 값을 늘려보세요.

    +
    minimum_sentence_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 문자열을 합성할 문장으로 간주하기 위한 최소 문자 길이를 설정합니다. 이것은 텍스트 청크가 처리되고 재생되는 방식에 영향을 미칩니다.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 양보하기 전에 첫 번째 문장 조각에 필요한 최소 문자 수.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 활성화되면, 텍스트 조각이 오디오로 합성될 때 로그를 기록합니다. 감사 및 디버깅에 유용합니다.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: 참이면, 처리하기 전에 생성된 텍스트를 재설정하세요.
    • +
    +
    output_wavfile (str)
    +
      +
    • 기본값: None
    • +
    • 설명: 설정된 경우, 오디오를 지정된 WAV 파일로 저장합니다.
    • +
    +
    on_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 문장 조각이 합성된 후 호출되는 콜백 함수.
    • +
    +
    before_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: 없음
    • +
    • 설명: 단일 문장 조각이 합성되기 전에 호출되는 콜백 함수.
    • +
    +
    on_audio_chunk (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 오디오 청크가 준비되면 호출되는 콜백 함수.
    • +
    +
    tokenizer (str)
    +
      +
    • 기본값: "nltk"
    • +
    • 설명: 문장 분리를 위한 토크나이저. 현재 "nltk"와 "stanza"를 지원합니다.
    • +
    +
    tokenize_sentences (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 입력 텍스트에서 문장을 토큰화하는 사용자 정의 함수. nltk와 stanza에 만족하지 않으면 자신만의 경량 토크나이저를 제공할 수 있습니다. 텍스트를 문자열로 받아서 문장으로 나눈 후 문자열 목록으로 반환해야 합니다.
    • +
    +
    language (str)
    +
      +
    • 기본값: "en"
    • +
    • 설명: 문장 분할에 사용할 언어.
    • +
    +
    context_size (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계 감지를 위한 컨텍스트를 설정하는 데 사용되는 문자 수. 더 넓은 맥락이 문장 경계를 감지하는 정확성을 높입니다.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계를 감지할 때 미리 보기 위한 추가 컨텍스트 크기.
    • +
    +
    muted (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 참이면, 로컬 스피커를 통한 오디오 재생을 비활성화합니다. 파일로 합성하거나 오디오 청크를 재생하지 않고 처리할 때 유용합니다.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 기본값: ".?!;:,\n…)]}。-" 문장 구분자로 간주되는 문자 문자열.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 기본값: 15
    • +
    • 설명: 첫 번째 문장 조각이 강제로 생성되는 단어 수.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ko/contributing/index.html b/es/ko/contributing/index.html new file mode 100755 index 0000000..18fcbbb --- /dev/null +++ b/es/ko/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS에 기여하기

    +

    RealtimeTTS에 기여해 주시면 환영합니다! 여기 당신이 기여할 수 있는 몇 가지 방법이 있습니다:

    +
      +
    1. +

      버그 신고: 버그를 발견하셨다면, 저희 GitHub 저장소에 이슈를 열어주세요.

      +
    2. +
    3. +

      개선 사항 제안하기: 새로운 기능이나 개선 사항에 대한 아이디어가 있나요? 우리는 그것들을 듣고 싶어요! 개선 사항을 제안하기 위해 이슈를 열어주세요.

      +
    4. +
    5. +

      코드 기여: 새로운 기능을 추가하거나 버그를 수정하고 싶으신가요? 대단해! 다음 단계를 따라주세요:

      +
    6. +
    7. 저장소를 포크하세요
    8. +
    9. 기능을 위한 새로운 브랜치를 만드세요
    10. +
    11. +

      변경 사항을 적용하세요 + 변경 사항에 대한 명확한 설명과 함께 풀 리퀘스트를 제출하세요.

      +
    12. +
    13. +

      문서화: 오타를 수정하거나 예제를 추가하거나 혼란스러운 부분을 명확히 하여 문서화를 개선하는 데 도움을 주세요.

      +
    14. +
    15. +

      새 엔진 추가하기: 새로운 TTS 엔진을 추가하고 싶다면, 먼저 구현에 대해 논의하기 위해 이슈를 열어주세요.

      +
    16. +
    +

    RealtimeTTS를 더 좋게 만드는 데 도움을 주셔서 감사합니다!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ko/faq/index.html b/es/ko/faq/index.html new file mode 100755 index 0000000..31ade47 --- /dev/null +++ b/es/ko/faq/index.html @@ -0,0 +1,1856 @@ + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    자주 묻는 질문

    +

    RealtimeTTS에 대한 자주 묻는 질문에 대한 답변은 GitHub의 FAQ 페이지를 참조해 주세요.

    +

    이 페이지는 다음과 같은 다양한 주제를 다룹니다:

    +
      +
    • 다양한 TTS 엔진의 사용
    • +
    • 다국어 텍스트 처리
    • +
    • 성능 최적화
    • +
    • 일반적인 문제 해결
    • +
    +

    자세한 정보는 위의 링크를 방문해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ko/index.html b/es/ko/index.html new file mode 100755 index 0000000..ce5067b --- /dev/null +++ b/es/ko/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    실시간TTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    실시간 애플리케이션을 위한 사용하기 쉽고 저지연 텍스트 음성 변환 라이브러리

    +

    프로젝트 소개

    +

    RealtimeTTS는 실시간 애플리케이션을 위해 설계된 최첨단 텍스트 음성 변환(TTS) 라이브러리입니다. 텍스트 스트림을 빠르게 고품질의 오디오 출력으로 변환하는 능력에서 두드러집니다.

    +

    주요 특징

    +
      +
    • 저지연: 거의 즉각적인 텍스트 음성 변환, LLM 출력과 호환 가능
    • +
    • 고품질 오디오: 명확하고 자연스러운 음성을 생성합니다.
    • +
    • 다양한 TTS 엔진 지원: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS 및 System TTS를 지원합니다.
    • +
    • 다국어 지원
    • +
    • 견고하고 신뢰할 수 있음: 백업 메커니즘을 통해 지속적인 운영을 보장하며, 중단 시 대체 엔진으로 전환하여 일관된 성능과 신뢰성을 보장합니다.
    • +
    +

    설치 지침, 사용 예제 및 API 참조를 보려면 사이드바를 사용하여 문서를 탐색해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ko/installation/index.html b/es/ko/installation/index.html new file mode 100755 index 0000000..af56cfc --- /dev/null +++ b/es/ko/installation/index.html @@ -0,0 +1,2267 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    한국어

    + +
    +

    참고: 이제 pip install realtimetts로 기본 설치하는 것은 권장되지 않으며, 대신 pip install realtimetts[all]를 사용하세요.

    +
    +

    RealtimeTTS 라이브러리는 사용 사례에 맞는 다양한 종속성 설치 옵션을 제공합니다. 여기 당신의 필요에 따라 RealtimeTTS를 설치할 수 있는 다양한 방법이 있습니다:

    +

    전체 설치

    +

    모든 TTS 엔진을 지원하는 RealtimeTTS를 설치하려면:

    +
    pip install -U realtimetts[all]
    +
    +

    맞춤 설치

    +

    RealtimeTTS는 최소한의 라이브러리 설치로 맞춤 설치를 허용합니다. 다음은 이용 가능한 옵션입니다: +- 모두: 모든 엔진이 지원되는 전체 설치. +- 시스템: 시스템별 TTS 기능 포함 (e.g., pyttsx3). +- azure: Azure Cognitive Services Speech 지원을 추가합니다. +- elevenlabs: ElevenLabs API와의 통합을 포함합니다. +- openai: OpenAI 음성 서비스용. +- gtts: 구글 텍스트 음성 변환 지원. +- coqui: Coqui TTS 엔진을 설치합니다. +- 최소: 엔진 없이 기본 요구 사항만 설치 (only needed if you want to develop an own engine)

    +

    로컬 신경망 Coqui TTS 사용을 위해 RealtimeTTS만 설치하고 싶다고 가정해 보세요, 그러면 다음을 사용해야 합니다:

    +
    pip install realtimetts[coqui]
    +
    +

    예를 들어, Azure Cognitive Services Speech, ElevenLabs, OpenAI 지원만으로 RealtimeTTS를 설치하고 싶다면:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    가상 환경 설치

    +

    가상 환경 내에서 전체 설치를 수행하려는 분들은 다음 단계를 따르세요:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA 설치에 대한 자세한 정보.

    +

    엔진 요구 사항

    +

    RealtimeTTS에서 지원하는 다양한 엔진은 고유한 요구 사항을 가지고 있습니다. 선택한 엔진에 따라 이러한 요구 사항을 충족하도록 하십시오.

    +

    시스템엔진

    +

    SystemEngine은 시스템에 내장된 TTS 기능과 함께 즉시 사용할 수 있습니다. 추가 설정이 필요하지 않습니다.

    +

    GTTSEngine

    +

    GTTSEngine은 Google Translate의 텍스트 음성 변환 API를 사용하여 즉시 작동합니다. 추가 설정이 필요 없습니다.

    +

    오픈AI엔진

    +

    OpenAIEngine을 사용하려면: +- 환경 변수 OPENAI_API_KEY 설정 +- ffmpeg 설치 (참고: CUDA 설치 3번 항목)

    +

    AzureEngine

    +

    AzureEngine을 사용하려면 다음이 필요합니다: +- Microsoft Azure Text-to-Speech API 키 (AzureEngine 생성자 매개변수 "speech_key" 또는 환경 변수 AZURE_SPEECH_KEY를 통해 제공됨) +- 마이크로소프트 애저 서비스 지역.

    +

    AzureEngine을 초기화할 때 이러한 자격 증명이 준비되어 있고 올바르게 구성되어 있는지 확인하세요.

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine을 사용하려면 다음이 필요합니다: +- Elevenlabs API 키 (ElevenlabsEngine 생성자 매개변수 "api_key"를 통해 제공되거나 환경 변수 ELEVENLABS_API_KEY에 설정됨) +- 시스템에 mpv가 설치되어 있습니다. (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 mpv 설치하기: + - macOS: + plaintext + brew install mpv

    +
      +
    • 리눅스와 윈도우: 설치 지침은 mpv.io를 방문하세요.
    • +
    +

    코키엔진

    +

    고품질의 로컬 신경 TTS를 음성 클로닝과 함께 제공합니다.

    +

    먼저 신경 TTS 모델을 다운로드합니다. 대부분의 경우 GPU 합성을 사용하면 실시간으로 충분히 빠를 것입니다. 약 4-5GB의 VRAM이 필요합니다.

    +
      +
    • 음성을 복제하려면 소스 음성이 포함된 WAV 파일의 파일 이름을 "voice" 매개변수로 CoquiEngine 생성자에게 제출하십시오.
    • +
    • 음성 복제는 22050 Hz 모노 16비트 WAV 파일에 짧은 (~5-30초) 샘플이 포함된 경우에 가장 잘 작동합니다.
    • +
    +

    대부분의 시스템에서는 실시간으로 충분히 빠르게 실행하기 위해 GPU 지원이 필요하며, 그렇지 않으면 끊김 현상이 발생할 것입니다.

    +

    CUDA 설치

    +

    이 단계들은 더 나은 성능을 요구하고 호환 가능한 NVIDIA GPU를 가진 분들에게 권장됩니다.

    +
    +

    참고: NVIDIA GPU가 CUDA를 지원하는지 확인하려면 공식 CUDA GPU 목록을 방문하세요.

    +
    +

    CUDA를 통해 지원되는 토치를 사용하려면 다음 단계를 따르세요:

    +
    +

    참고: 최신 pytorch 설치는 여기 (확인되지 않음)에서 Toolkit (및 아마도 cuDNN) 설치가 더 이상 필요하지 않을 수 있습니다.

    +
    +
      +
    1. +

      NVIDIA CUDA 툴킷 설치: + 예를 들어, Toolkit 12.X를 설치하려면

      +
        +
      • NVIDIA CUDA 다운로드를 방문하세요.
      • +
      • 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요.
      • +
      • 소프트웨어를 다운로드하고 설치하세요.
      • +
      +

      또는 Toolkit 11.8을 설치하려면, +- NVIDIA CUDA Toolkit 아카이브를 방문하세요. +- 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    2. +
    3. +

      NVIDIA cuDNN 설치:

      +

      예를 들어, CUDA 11.x에 cuDNN 8.7.0을 설치하려면 +- NVIDIA cuDNN 아카이브를 방문하세요. +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x"를 클릭하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    4. +
    5. +

      ffmpeg 설치:

      +

      ffmpeg 웹사이트에서 운영 체제에 맞는 설치 프로그램을 다운로드할 수 있습니다.

      +

      또는 패키지 관리자를 사용하세요:

      +
        +
      • +

        우분투나 데비안에서: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linux에서: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrew를 사용한 MacOS에서 (https://brew.sh/): + ```bash +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolatey를 사용한 Windows에서** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +        ```
    +
    +    - **Scoop을 사용하여 Windows에서** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```
    +        스쿱 설치 ffmpeg
    +
    +
      +
    1. +

      CUDA 지원으로 PyTorch 설치하기:

      +

      CUDA를 사용하여 GPU 지원을 활성화하려면, 특정 CUDA 버전에 따라 다음 지침을 따르세요. CUDA 기능으로 RealtimeSTT의 성능을 향상시키고자 한다면 유용합니다.

      +
        +
      • +

        CUDA 11.8의 경우:

        +

        PyTorch와 Torchaudio를 CUDA 11.8을 지원하도록 업데이트하려면 다음 명령어를 사용하세요:

        +

        ```bash +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      +
    2. +
    +
            텍스트를 번역할 내용: ```
    +
    +    - **CUDA 12.X의 경우:**
    +
    +
    +        PyTorch와 Torchaudio를 CUDA 12.X를 지원하도록 업데이트하려면 다음을 실행하세요:
    +
    +        ```bash
    +pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +
        텍스트를 번역할 내용: ```
    +
    +`2.3.1`을(를) 귀하의 시스템 및 요구 사항에 맞는 PyTorch 버전으로 교체하세요.
    +
    +
      +
    1. 호환성 문제를 해결하기 위한 수정: + 라이브러리 호환성 문제에 직면하면, 이 라이브러리들을 고정된 버전으로 설정해 보세요:
    2. +
    +

    텍스트를 번역할 내용: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/ko/usage/index.html b/es/ko/usage/index.html new file mode 100755 index 0000000..cf2c63a --- /dev/null +++ b/es/ko/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    사용 방법

    +

    빠른 시작

    +

    기본적인 사용 예는 다음과 같습니다:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +
    +engine = SystemEngine() # TTS 엔진을 지정
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    텍스트 피드

    +

    개별 문자열을 입력할 수 있습니다:

    +
    stream.feed("안녕하세요, 이것은 문장입니다.")
    +
    +

    실시간 스트리밍용 제너레이터나 문자 이터레이터를 피드하는 것도 가능합니다:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    재생

    +

    비동기 재생:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    동기 재생:

    +
    stream.play()
    +
    +

    라이브러리 테스트

    +

    test 서브디렉토리에는 RealtimeTTS 라이브러리의 기능을 평가하고 이해하기 위한 스크립트가 포함되어 있습니다.

    +

    오래된 OpenAI API (<1.0.0)에 의존하는 테스트가 많기 때문에, 새로운 OpenAI API의 사용 예는 openai_1.0_test.py에서 확인할 수 있습니다.

    +
      +
    • +

      simple_test.py

      +
        +
      • 설명: 라이브러리의 가장 간단한 사용법을 보여주는 "Hello World" 스타일의 데모.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 설명: 라이브러리의 대부분 기능을 포괄하는 종합적인 데모.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 설명: 로컬 Coqui TTS 엔진의 테스트.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하세요.
      • +
      • 설명: 6개의 다른 언어로 실시간 번역.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하십시오.
      • +
      • 설명: 시작 단어로 시작되는 음성 기반의 OpenAI API 인터페이스.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 의존성: pip install openai keyboard realtimestt를 실행하십시오.
      • +
      • 설명: TTS 엔진과 목소리를 선택하여 AI 대화를 시작하세요.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 의존성: pip install openai realtimestt 실행.
      • +
      • 説明: 20行のコードで作成されたシンプルなトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: ラージランゲージモデル(LLM)との統合の簡単なデモ。
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: コールバックを紹介し、実環境での待機時間をチェック可能。
      • +
      +
    • +
    +

    一時停止、再開 & 停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止したストリームを再開:

    +
    stream.resume()
    +
    +

    ストリームをすぐに停止:

    +
    stream.stop()
    +
    +

    必要要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必須: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリはCoquiのGitHubライブラリ「TTS」に依存しており、Pythonのこのバージョン範囲が必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するため

      +
    • +
    • +

      stream2sentence: 入力されるテキストストリームを文単位に分割するため

      +
    • +
    • +

      pyttsx3: システムテキスト読み上げエンジン

      +
    • +
    • +

      pydub: オーディオチャンクの形式変換用

      +
    • +
    • +

      azure-cognitiveservices-speech: Azureテキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabsテキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTS用CoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap研究所が管理するCoqui TTSのフォークに感謝。

    +
      +
    • +

      openai: OpenAIのTTS APIとのインタラクション用

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/usage/index.html b/es/usage/index.html index a3c6867..9b98de3 100755 --- a/es/usage/index.html +++ b/es/usage/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - + +
  • + + + + + + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • @@ -967,6 +1470,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1075,6 +1704,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/es/zh/api/index.html b/es/zh/api/index.html new file mode 100755 index 0000000..faf70ff --- /dev/null +++ b/es/zh/api/index.html @@ -0,0 +1,2791 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +

    配置

    +

    TextToAudioStream 的初始化参数

    +

    初始化 TextToAudioStream 类时,有多种选项可自定义其行为。以下是可用参数:

    +

    engine (BaseEngine)

    +
      +
    • 类型**: 基础引擎
    • +
    • 必需**: 是
    • +
    • 描述***: 负责文本到音频合成的底层引擎。您必须提供一个 BaseEngine 或其子类的实例才能启用音频合成。
    • +
    +

    on_text_stream_start(可调用)

    +
      +
    • 类型**: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 这个可选的回调函数会在文本流开始时触发。可用于任何设置或日志记录。
    • +
    +

    on_text_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当文本流结束时,这个可选的回调函数将被激活。可用于清理任务或日志记录。
    • +
    +

    on_audio_stream_start(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流启动时,会调用这个可选的回调函数。可用于用户界面更新或事件记录。
    • +
    +

    on_audio_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流停止时,会调用这个可选的回调函数。是资源清理或后处理任务的理想选择。
    • +
    +

    on_character(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 处理单个字符时调用此可选回调函数。
    • +
    +

    output_device_index (int)

    +
      +
    • 类型***: 整数
    • +
    • 要求**: 无
    • +
    • 默认**: 无
    • +
    • 描述***: 指定要使用的输出设备索引。无则使用默认设备。
    • +
    +

    tokenizer (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 无
    • +
    • 默认**: nltk
    • +
    • 描述**: 用于分句的标记符(目前支持 “nltk ”和 “stanza”)。
    • +
    +

    language (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 否
    • +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +

    muted (bool)

    +
      +
    • 类型***: 布尔
    • +
    • 要求**: 否
    • +
    • 默认**: 假
    • +
    • 描述***: 全局静音参数。如果为 True,则不会打开 pyAudio 流。禁止通过本地扬声器播放音频(以防要合成到文件或处理音频块),并覆盖播放参数静音设置。
    • +
    +

    level (int)

    +
      +
    • 类型**: 整数
    • +
    • 必须**: 无
    • +
    • 默认**: 日志警告
    • +
    • 描述***: 设置内部日志记录器的日志记录级别。可以是 Python 内置的 logging 模块中的任意整数常量。
    • +
    +

    使用示例:

    +
    engine = YourEngine() # 用你的引擎代替
    +stream = TextToAudioStream(
    +    engine=engine、
    +    on_text_stream_start=my_text_start_func、
    +    on_text_stream_stop=my_text_stop_func、
    +    on_audio_stream_start=my_audio_start_func、
    +    on_audio_stream_stop=my_audio_stop_func、
    +    级别=logging.INFO
    +)
    +
    +

    方法

    +

    playplay_async 方法

    +

    这些方法负责执行文本到音频的合成并播放音频流。不同之处在于,play 是一个阻塞函数,而 play_async 则在单独的线程中运行,允许其他操作继续进行。

    +
    参数:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 默认**: true
    • +
    • 描述***: 当设置为 “true ”时,该方法将优先考虑速度,以更快的速度生成和播放句子片段。这对延迟很重要的应用程序很有用。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 当设置为 “true ”时,快速句子片段处理适用于所有句子,而不仅仅是第一个句子。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 设置为 “true ”时,允许产生多个句子片段,而不是只有一个。
    • +
    +
    buffer_threshold_seconds (浮点数)
    +
      +
    • 默认值**: 0.0
    • +
    • +

      描述**: 指定缓冲阈值的时间(以秒为单位),它会影响音频播放的流畅性和连续性。

      +
    • +
    • +

      工作原理 在合成新句子之前,系统会检查缓冲区中剩余的音频资料是否多于 buffer_threshold_seconds指定的时间。如果是,系统就会从文本生成器中获取另一个句子,假设它能在缓冲区中剩余音频所提供的时间窗口内获取并合成这个新句子。这个过程可以让文本到语音引擎有更多的语境,从而更好地进行合成,增强用户体验。

      +
    • +
    +

    较高的值可确保有更多的预缓冲音频,减少播放过程中出现静音或间断的可能性。如果出现断句或停顿,请考虑增加该值。

    +
    minimum_sentence_length(int)
    +
      +
    • 默认10
    • +
    • 描述**: 设置将字符串视为句子进行合成的最小字符长度。这会影响文本块的处理和播放方式。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 默认值**: 10
    • +
    • 描述**: 第一个句子片段的最小字符数。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 启用后,记录合成为音频的文本块。有助于审计和调试。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 默认**: true
    • +
    • 描述**: 如果为 True,则在处理前重置生成的文本。
    • +
    +
    output_wavfile (str)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 如果设置为 “是”,则将音频保存到指定的 WAV 文件中。
    • +
    +
    on_sentence_synthesized(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成一个句子片段后调用的回调函数。
    • +
    +
    before_sentence_synthesized (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成单个句子片段之前调用的回调函数。
    • +
    +
    on_audio_chunk(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 单个音频片段准备就绪时调用的回调函数。
    • +
    +
    tokenizer (str)
    +
      +
    • 默认**: “nltk”
    • +
    • 描述**: 用于分句的标记符。目前支持 “nltk ”和 “stanza”。
    • +
    +
    tokenize_sentences (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 从输入文本中标记句子的自定义函数。如果对 nltk 和 stanza 不满意,可以提供自己的轻量级标记符。它应以字符串形式接收文本,并以字符串列表形式返回拆分后的句子。
    • +
    +
    language (str)
    +
      +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +
    context_size (int)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 用于建立句子边界检测上下文的字符数。上下文越大,检测句子边界的准确性就越高。
    • +
    +
    context_size_look_overhead (整数)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 检测句子边界时用于前瞻的额外上下文大小。
    • +
    +
    muted (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述***: 如果为 True,则禁止通过本地扬声器播放音频。当您想合成一个文件或处理音频块而不播放它们时,此功能非常有用。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 默认**: “.?!;:,\n...)]}。-”
    • +
    • 描述**: 被视为句子分隔符的字符串。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 默认值**: 15
    • +
    • 描述***: 强制产生第一个句子片段的字数。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/zh/contributing/index.html b/es/zh/contributing/index.html new file mode 100755 index 0000000..a408b4b --- /dev/null +++ b/es/zh/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    向 RealtimeTTS 投稿

    +

    我们欢迎您为 RealtimeTTS 投稿!您可以通过以下方式为 RealtimeTTS 投稿:

    +
      +
    1. +

      报告错误: 如果您发现了错误,请在我们的 GitHub 存储库 上打开一个问题。

      +
    2. +
    3. +

      提出改进建议: 有关于新功能或改进的想法吗?我们很乐意倾听!打开问题,提出改进建议。

      +
    4. +
    5. +

      代码贡献: 想要添加新功能或修复错误?太好了!请按照以下步骤操作:

      +
    6. +
    7. 分叉版本库
    8. +
    9. 为您的功能创建一个新分支
    10. +
    11. 进行更改
    12. +
    13. +

      提交一个拉取请求,清楚地描述您的更改

      +
    14. +
    15. +

      文档: 通过修正错别字、添加示例或澄清易混淆的部分来帮助我们改进文档。

      +
    16. +
    17. +

      添加新引擎: 如果您想添加对新 TTS 引擎的支持,请先打开一个问题来讨论实现方法。

      +
    18. +
    +

    感谢您帮助改进 RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/zh/faq/index.html b/es/zh/faq/index.html new file mode 100755 index 0000000..41f67d9 --- /dev/null +++ b/es/zh/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    常见问题

    +

    有关 RealtimeTTS 常见问题的解答,请参阅我们的 GitHub 上的常见问题页面

    +

    该页面涵盖各种主题,包括

    +
      +
    • 不同 TTS 引擎的使用
    • +
    • 处理多语言文本
    • +
    • 性能优化
    • +
    • 常见问题的故障排除
    • +
    +

    更多详细信息,请访问以上链接。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/zh/index.html b/es/zh/index.html new file mode 100755 index 0000000..f2a4802 --- /dev/null +++ b/es/zh/index.html @@ -0,0 +1,1937 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    易于使用、低延迟、适用于实时应用的文本到语音库

    +

    项目简介

    +

    RealtimeTTS 是专为实时应用设计的最先进的文本转语音(TTS)库。它能将文本流快速转换为高质量的听觉输出,并将延迟降到最低。

    +

    关键功能

    +
      +
    • 低延迟**:文本到语音的转换几乎瞬时完成,与 LLM 输出兼容
    • +
    • 高质量音频**:生成清晰自然的语音
    • +
    • 支持多种 TTS 引擎**:支持 OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS 和 System TTS
    • +
    • 多种语言**
    • +
    • 稳定可靠**:通过后备机制确保持续运行,在出现中断时切换到替代引擎,保证性能和可靠性的一致性
    • +
    +

    有关安装说明、使用示例和 API 参考,请使用侧边栏浏览文档。

    +

    通过DeepL.com(免费版)翻译

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/zh/installation/index.html b/es/zh/installation/index.html new file mode 100755 index 0000000..dcbc898 --- /dev/null +++ b/es/zh/installation/index.html @@ -0,0 +1,2274 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +
    +

    注意: 不再推荐使用 pip install realtimetts 进行基本安装,而应使用 pip install realtimetts[all]

    +
    +

    RealtimeTTS 库为您的用例提供了各种依赖项的安装选项。以下是根据需要安装 RealtimeTTS 的不同方法:

    +

    完整安装

    +

    安装支持所有 TTS 引擎的 RealtimeTTS:

    +
    pip install -U realtimetts[all]
    +
    +

    定制安装

    +

    RealtimeTTS 允许使用最少的库安装进行自定义安装。以下是可用选项: +- 全部: 完全安装所有支持的引擎。 +- *系统: 包括特定系统的 TTS 功能(如 pyttsx3)。 +- azure: 添加 Azure 认知服务语音支持。 +- elevenlabs: 包括与 ElevenLabs API 的集成。 +- openai: 用于 OpenAI 语音服务。 +- gtts: 支持谷歌文本到语音。 +- coqui: 安装 Coqui TTS 引擎。 +- minimal: 只安装基本要求,不安装引擎(只有当你想开发自己的引擎时才需要)。

    +

    如果您只想为本地神经元 Coqui TTS 安装 RealtimeTTS,则应使用

    +
    pip install realtimetts[coqui]
    +
    +

    例如,如果您想安装只支持 Azure 认知服务语音、ElevenLabs 和 OpenAI 的 RealtimeTTS:

    +
    pip install realtimetts[azure,elevenlabs,openai].
    +
    +

    虚拟环境安装

    +

    如果想在虚拟环境中进行完整安装,请按照以下步骤操作:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    有关 CUDA 安装 的更多信息。

    +

    引擎要求

    +

    RealtimeTTS 支持的不同引擎有其独特的要求。请根据所选引擎确保满足这些要求。

    +

    系统引擎

    +

    系统引擎 "开箱即用,具有系统内置的 TTS 功能。无需额外设置。

    +

    GTTS 引擎

    +

    GTTSEngine "开箱即用,使用谷歌翻译的文本到语音 API。无需额外设置。

    +

    OpenAIEngine

    +

    要使用 OpenAIEngine: +- 设置环境变量 OPENAI_API_KEY +- 安装 ffmpeg(参见 CUDA 安装 第 3 点)

    +

    AzureEngine

    +

    要使用 “AzureEngine”,你需要 +- Microsoft Azure 文本到语音 API 密钥(通过 AzureEngine 构造函数参数 “speech_key ”或环境变量 AZURE_SPEECH_KEY 提供) +- Microsoft Azure 服务区域。

    +

    在初始化 AzureEngine 时,确保这些凭据可用并配置正确。

    +

    ElevenlabsEngine

    +

    使用 ElevenlabsEngine 时需要 +- Elevenlabs API 密钥(通过 ElevenlabsEngine 构造函数参数 “api_key ”或环境变量 ELEVENLABS_API_KEY 提供) +- 系统中已安装 mpv(用于流式传输 mpeg 音频,Elevenlabs 仅提供 mpeg)。

    +

    🔹 安装 mpv: + - macOS**: + brew install mpv

    +
      +
    • Linux和Windows: 请访问 mpv.io 获取安装说明。
    • +
    +

    CoquiEngine

    +

    通过语音克隆提供高质量的本地神经 TTS。

    +

    首先下载一个神经 TTS 模型。在大多数情况下,使用 GPU 合成的实时速度足够快。需要大约 4-5GB VRAM。

    +
      +
    • 要克隆语音,请将包含源语音的波形文件的文件名作为 “语音 ”参数提交给 CoquiEngine 构造函数
    • +
    • 语音克隆最好使用 22050 Hz 单声道 16 位 WAV 文件,其中包含一个短(约 5-30 秒)样本
    • +
    +

    在大多数系统上,需要 GPU 的支持才能以足够快的速度实时运行,否则会出现卡顿现象。

    +

    CUDA 安装

    +

    这些步骤适用于那些需要更好性能并且拥有兼容的NVIDIA GPU的人。

    +
    +

    注意要检查您的NVIDIA GPU是否支持CUDA,请访问官方CUDA GPU列表

    +
    +

    要使用支持CUDA的torch,请按照以下步骤操作:

    +
    +

    注意较新的 PyTorch 安装 可能(未经验证)不再需要安装 Toolkit(可能也不需要安装 cuDNN)。

    +
    +
      +
    1. +

      安装 NVIDIA CUDA Toolkit: + 例如,要安装 Toolkit 12.X,请

      +
        +
      • 访问 NVIDIA CUDA 下载
      • +
      • 选择你的操作系统、系统架构和操作系统版本。
      • +
      • 下载并安装软件。
      • +
      +

      或者要安装 Toolkit 11.8,请 +- 访问 NVIDIA CUDA Toolkit Archive。 +- 选择您的操作系统、系统架构和操作系统版本。 +- 下载并安装软件。

      +
    2. +
    3. +

      安装 NVIDIA cuDNN

      +

      例如,要为CUDA 11.x安装cuDNN 8.7.0,请 +- 访问NVIDIA cuDNN归档。 +- 点击“下载 cuDNN v8.7.0(2022年11月28日),适用于 CUDA 11.x”。 +- 下载并安装软件。

      +
    4. +
    5. +

      安装 ffmpeg

      +

      您可以从 ffmpeg 网站 下载适用于您操作系统的安装程序。

      +

      或者使用包管理器:

      +
        +
      • +

        在 Ubuntu 或 Debian 上: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        在 Arch Linux 上: + sudo pacman -S ffmpeg

        +
      • +
      • +

        在使用 Homebrew 的 MacOS 上 (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        在Windows上使用Chocolatey (https://chocolatey.org/): + ``` + choco install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **在Windows上使用Scoop** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```plaintext
    +        scoop install ffmpeg
    +        ```
    +
    +4. **安装带有CUDA支持的PyTorch**:
    +
    +    要升级您的PyTorch安装以启用CUDA的GPU支持,请根据您的具体CUDA版本遵循以下说明。 如果您希望通过CUDA功能提升RealtimeSTT的性能,这将非常有用。
    +
    +    - **对于CUDA 11.8:**
    +
    +        要更新 PyTorch 和 Torchaudio 以支持 CUDA 11.8,请使用以下命令:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        文本待翻译:```
    +
    +- **对于CUDA 12.X:**
    +
    +
    +    要更新 PyTorch 和 Torchaudio 以支持 CUDA 12.X,请执行以下操作:
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +文本待翻译:

    +
    将 `2.3.1` 替换为适合您的系统和需求的 PyTorch 版本。
    +
    +
      +
    1. 修复以解决兼容性问题: + 如果你遇到库兼容性问题,尝试将这些库设置为固定版本:
    2. +
    +

    文本翻译:```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/es/zh/usage/index.html b/es/zh/usage/index.html new file mode 100755 index 0000000..a4e78b8 --- /dev/null +++ b/es/zh/usage/index.html @@ -0,0 +1,2149 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Saltar a contenido + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    用法

    +

    快速开始

    +

    这是一个基本的使用示例:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # 替换为你的TTS引擎 +流 = 文本转语音流(engine) +stream.feed("你好,世界!") 你今天怎么样? +stream.play_async()

    +

    供稿文本

    +

    你可以输入单个字符串:

    +
    stream.feed("你好,这是一句话。")
    +
    +

    或者你可以为实时流媒体提供生成器和字符迭代器:

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```聊天完成。创建(
    +        模型="gpt-3.5-turbo",
    +        消息=[{"角色": "用户", "内容": prompt}],
    +        流式=True
    +    ):
    +        如果 (text_chunk := chunk["choices"]上下文:[0]  
    +文本翻译:[0]["德尔塔"].get("content")) 不是 None:
    +            生成文本块
    +
    +文本流 = 写入("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +```python
    +char_iterator = iter("逐字符流式传输。")
    +stream.feed(char_iterator)
    +
    +

    播放

    +

    异步地:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同步:

    +
    stream.play()
    +
    +

    测试库

    +

    测试子目录包含一组脚本,帮助您评估和理解RealtimeTTS库的功能。

    +

    请注意,大多数测试仍然依赖于“旧”的OpenAI API(<1.0.0)。 在 openai_1.0_test.py 中演示了新 OpenAI API 的用法。

    +
      +
    • +

      simple_test.py

      +
        +
      • 描述:一个“你好,世界”风格的演示,展示了该库的最简单用法。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 描述:一个全面的演示,展示了该库提供的大多数功能。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 描述:本地coqui TTS引擎的测试。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述:实时翻译成六种不同的语言。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 唤醒词激活并通过语音界面访问OpenAI API。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依赖项: 运行 pip install openai keyboard realtimestt
      • +
      • 描述: 在开始AI对话之前选择TTS引擎和声音。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 一个20行代码的基本对话机器人。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 如何将库与大型语言模型集成的简单演示 (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 展示回调并让您在实际应用环境中检查延迟时间。
      • +
      +
    • +
    +

    暂停、继续和停止

    +

    暂停音频流:

    +
    stream.pause()
    +
    +

    恢复暂停的直播:

    +
    stream.resume()
    +
    +

    立即停止直播:

    +
    stream.stop()
    +
    +

    需求说明

    +
      +
    • Python 版本
    • +
    • 要求:Python >= 3.9,< 3.13
    • +
    • +

      原因: 该库依赖于来自coqui的GitHub库“TTS”,该库需要在此范围内的Python版本。

      +
    • +
    • +

      PyAudio:用于创建输出音频流

      +
    • +
    • +

      stream2sentence:将输入的文本流拆分成句子

      +
    • +
    • +

      pyttsx3:系统文本转语音引擎

      +
    • +
    • +

      pydub:用于转换音频块格式

      +
    • +
    • +

      azure-cognitiveservices-speech:Azure 语音合成引擎

      +
    • +
    • +

      elevenlabs:Elevenlabs 文字转语音转换引擎

      +
    • +
    • +

      coqui-TTS:Coqui的XTTS文本转语音库,用于高质量本地神经TTS

      +
    • +
    +

    Idiap研究所致敬,感谢他们维护了coqui tts的一个分支

    +
      +
    • +

      openai:与OpenAI的TTS API互动

      +
    • +
    • +

      gtts:谷歌翻译文本转语音转换

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/api/index.html b/fr/api/index.html index 3ecfc12..ecf14cb 100755 --- a/fr/api/index.html +++ b/fr/api/index.html @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -544,50 +669,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1398,6 +2027,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/ar/api/index.html b/fr/ar/api/index.html new file mode 100755 index 0000000..1a15556 --- /dev/null +++ b/fr/ar/api/index.html @@ -0,0 +1,2359 @@ + + + + + + + + + + + + + + + + + + + Api - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Api

    + +

    التكوين

    +

    معلمات التهيئة لـ TextToAudioStream

    +

    عند تهيئة فئة TextToAudioStream، لديك خيارات متعددة لتخصيص سلوكها. إليك المعلمات المتاحة:

    +

    engine (BaseEngine)

    +
      +
    • النوع: BaseEngine
    • +
    • مطلوب: نعم المحرك الأساسي المسؤول عن تحويل النص إلى صوت. يجب عليك تقديم نسخة من BaseEngine أو أحد فروعها لتمكين توليف الصوت.
    • +
    +

    on_text_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق النص. استخدمه لأي إعداد أو تسجيل قد تحتاجه.
    • +
    +

    on_text_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم تفعيل هذه الدالة الراجعة الاختيارية عند انتهاء تدفق النص. يمكنك استخدام هذا لمهام التنظيف أو التسجيل.
    • +
    +

    on_audio_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق الصوت. مفيد لتحديثات واجهة المستخدم أو تسجيل الأحداث.
    • +
    +

    on_audio_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا تُستدعى هذه الدالة الاختيارية عند توقف تدفق الصوت. مثالي لتنظيف الموارد أو مهام المعالجة اللاحقة.
    • +
    +

    on_character (callable)

    +

    السياق: - النوع:
    +النص للترجمة: - النوع: دالة قابلة للاستدعاء +- مطلوب: لا تُستدعى هذه الدالة الاختيارية عند معالجة حرف واحد.

    +

    output_device_index (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا يحدد فهرس جهاز الإخراج الذي سيتم استخدامه. لا أحد يستخدم الجهاز الافتراضي.
    • +
    +

    tokenizer (string)

    +
      +
    • النوع: سلسلة
    • +
    • مطلوب: لا
    • +
    • افتراضي: nltk
    • +
    • الوصف: أداة تقسيم الجمل (currently "nltk" and "stanza" are supported).
    • +
    +

    language (سلسلة نصية)

    +
      +
    • النوع: سلسلة نصية
    • +
    • مطلوب: لا اللغة التي يجب استخدامها لتقسيم الجمل.
    • +
    +

    muted (bool)

    +
      +
    • النوع: Bool
    • +
    • مطلوب: لا
    • +
    • القيمة الافتراضية: False
    • +
    • الوصف: المعلمة العالمية الصامتة. إذا كان صحيحًا، فلن يتم فتح أي تدفق pyAudio. يعطل تشغيل الصوت عبر مكبرات الصوت المحلية (في حال كنت تريد التوليف إلى ملف أو معالجة أجزاء الصوت) ويتجاوز إعدادات كتم الصوت في معلمات التشغيل.
    • +
    +

    level (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا
    • +
    • افتراضي: logging.WARNING
    • +
    • الوصف: يحدد مستوى التسجيل للمدون الداخلي. يمكن أن يكون هذا أي ثابت صحيح من وحدة logging المدمجة في بايثون.
    • +
    +

    النص المراد ترجمته: #### مثال على الاستخدام:

    +
    engine = YourEngine()  # استبدل بمحركك
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    الطرق

    +

    play و play_async

    +

    هذه الطرق مسؤولة عن تنفيذ تحويل النص إلى صوت وتشغيل تدفق الصوت. الفرق هو أن play هي دالة حظر، بينما play_async تعمل في خيط منفصل، مما يسمح للعمليات الأخرى بالاستمرار.

    +

    السياق: ##### المعايير:
    +النص المراد ترجمته: ##### المعايير:

    +
    fast_sentence_fragment (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: عند تعيينه على True، ستعطي الطريقة الأولوية للسرعة، مما يؤدي إلى إنشاء وتشغيل أجزاء الجمل بشكل أسرع. هذا مفيد للتطبيقات التي تكون فيها الكمون مهمًا.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند تعيينه إلى True، يتم تطبيق معالجة أجزاء الجمل السريعة على جميع الجمل، وليس فقط الجملة الأولى.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • افتراضي: خطأ
    • +
    • الوصف: عند تعيينه على True، يسمح بإنتاج أجزاء متعددة من الجمل بدلاً من جزء واحد فقط.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • الافتراضي: 0.0
    • +
    • +

      الوصف: يحدد الوقت بالثواني لعتبة التخزين المؤقت، مما يؤثر على سلاسة واستمرارية تشغيل الصوت.

      +
    • +
    • +

      كيف يعمل: قبل تركيب جملة جديدة، يتحقق النظام مما إذا كان هناك المزيد من المواد الصوتية المتبقية في المخزن المؤقت أكثر من الوقت المحدد بواسطة buffer_threshold_seconds. إذا كان الأمر كذلك، فإنه يسترجع جملة أخرى من مولد النصوص، على افتراض أنه يمكنه جلب وتوليف هذه الجملة الجديدة ضمن الإطار الزمني المتاح من الصوت المتبقي في الذاكرة المؤقتة. تسمح هذه العملية لمحرك تحويل النص إلى كلام بالحصول على مزيد من السياق لتحسين التركيب، مما يعزز تجربة المستخدم.

      +
    • +
    +

    قيمة أعلى تضمن وجود المزيد من الصوت المخزن مسبقًا، مما يقلل من احتمال حدوث صمت أو فجوات أثناء التشغيل. إذا كنت تواجه انقطاعات أو توقفات، فكر في زيادة هذه القيمة.

    +
    minimum_sentence_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: يحدد الحد الأدنى لطول الأحرف لاعتبار سلسلة كنص يجب تصنيعه. هذا يؤثر على كيفية معالجة وتشغيل أجزاء النص.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: الحد الأدنى لعدد الأحرف المطلوبة للجزء الأول من الجملة قبل التوقف.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند التفعيل، يسجل أجزاء النص كما يتم تحويلها إلى صوت. مفيد للتدقيق وإصلاح الأخطاء.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: إذا كان صحيحًا، أعد تعيين النص المُولد قبل المعالجة.
    • +
    +
    output_wavfile (str)
    +
      +
    • الافتراضي: None
    • +
    • الوصف: إذا تم تعيينه، احفظ الصوت في ملف WAV المحدد.
    • +
    +
    on_sentence_synthesized (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة رد نداء تُستدعى بعد أن يتم تركيب جزء جملة واحد.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: دالة رد نداء تُستدعى قبل أن يتم تركيب جزء جملة واحد.
    • +
    +
    on_audio_chunk (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة الاستدعاء التي تُستدعى عندما يكون جزء الصوت جاهزًا.
    • +
    +
    tokenizer (str)
    +
      +
    • الافتراضي: "nltk"
    • +
    • الوصف: المحلل اللغوي المستخدم لتقسيم الجمل. يدعم حاليًا "nltk" و "stanza".
    • +
    +
    tokenize_sentences (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء +السياق: - الوصف:
      +النص للترجمة: - الوصف: دالة مخصصة تقوم بتقسيم الجمل من النص المدخل. يمكنك توفير محلل لغوي خفيف الوزن خاص بك إذا لم تكن راضيًا عن nltk وstanza. يجب أن يأخذ النص كسلسلة ويعيد الجمل المقسمة كقائمة من السلاسل.
    • +
    +
    language (str)
    +
      +
    • الإعداد الافتراضي: "en"
    • +
    • الوصف: اللغة المستخدمة لتقسيم الجمل.
    • +
    +
    context_size (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: عدد الأحرف المستخدمة لتحديد السياق لاكتشاف حدود الجمل. سياق أكبر يحسن دقة اكتشاف حدود الجمل.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: حجم سياق إضافي للنظر للأمام عند اكتشاف حدود الجمل.
    • +
    +
    muted (bool)
    +
      +
    • الإعداد الافتراضي: خطأ
    • +
    • الوصف: إذا كان صحيحًا، يتم تعطيل تشغيل الصوت عبر مكبرات الصوت المحلية. مفيد عندما تريد التوليف إلى ملف أو معالجة مقاطع الصوت دون تشغيلها.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • الإعداد الافتراضي: ".?!;:,\n…)]}。-" سلسلة من الأحرف التي تُعتبر محددات للجمل.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • الافتراضي: 15
    • +
    • الوصف: عدد الكلمات التي يجب بعدها أن يتم تقديم الجزء الأول من الجملة.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ar/contributing/index.html b/fr/ar/contributing/index.html new file mode 100755 index 0000000..3f6f017 --- /dev/null +++ b/fr/ar/contributing/index.html @@ -0,0 +1,1853 @@ + + + + + + + + + + + + + + + + + + + المساهمة في RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    المساهمة في RealtimeTTS

    +

    نرحب بالمساهمات في RealtimeTTS! إليك بعض الطرق التي يمكنك المساهمة بها:

    +
      +
    1. +

      الإبلاغ عن الأخطاء: إذا وجدت خطأً، يرجى فتح مشكلة على مستودع GitHub الخاص بنا.

      +
    2. +
    3. +

      اقتراح التحسينات: هل لديك أفكار لميزات جديدة أو تحسينات؟ نود أن نسمعها! افتح قضية لاقتراح تحسينات.

      +
    4. +
    5. +

      مساهمات البرمجة: هل تريد إضافة ميزة جديدة أو إصلاح خطأ؟ رائع! يرجى اتباع هذه الخطوات:

      +
    6. +
    7. قم بعمل Fork للمستودع
    8. +
    9. أنشئ فرعًا جديدًا لميزتك
    10. +
    11. أجرِ التغييرات الخاصة بك
    12. +
    13. +

      قدّم طلب سحب مع وصف واضح للتغييرات التي أجريتها

      +
    14. +
    15. +

      التوثيق: ساعدنا في تحسين توثيقنا من خلال تصحيح الأخطاء المطبعية، وإضافة أمثلة، أو توضيح الأقسام المربكة.

      +
    16. +
    17. +

      إضافة محركات جديدة: إذا كنت ترغب في إضافة دعم لمحرك TTS جديد، يرجى فتح قضية أولاً لمناقشة التنفيذ.

      +
    18. +
    +

    شكراً لمساعدتك في تحسين RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ar/faq/index.html b/fr/ar/faq/index.html new file mode 100755 index 0000000..db378ab --- /dev/null +++ b/fr/ar/faq/index.html @@ -0,0 +1,1837 @@ + + + + + + + + + + + + + + + + + + + الأسئلة المتكررة - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    الأسئلة المتكررة

    +

    للحصول على إجابات للأسئلة الشائعة حول RealtimeTTS، يرجى الرجوع إلى صفحة الأسئلة الشائعة على GitHub.

    +

    تغطي هذه الصفحة مواضيع متنوعة بما في ذلك:

    +
      +
    • استخدام محركات تحويل النص إلى كلام المختلفة
    • +
    • التعامل مع النصوص متعددة اللغات
    • +
    • تحسين الأداء
    • +
    • استكشاف المشكلات الشائعة وإصلاحها
    • +
    +

    لمزيد من المعلومات التفصيلية، يرجى زيارة الرابط أعلاه.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ar/index.html b/fr/ar/index.html new file mode 100755 index 0000000..cc376be --- /dev/null +++ b/fr/ar/index.html @@ -0,0 +1,1867 @@ + + + + + + + + + + + + + + + + + + + RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    مكتبة تحويل النص إلى كلام سهلة الاستخدام ومنخفضة الكمون للتطبيقات في الوقت الحقيقي

    +

    عن المشروع

    +

    RealtimeTTS هي مكتبة متطورة لتحويل النص إلى كلام (TTS) مصممة للتطبيقات في الوقت الفعلي. تتميز بقدرتها على تحويل تدفقات النصوص بسرعة إلى مخرجات صوتية عالية الجودة مع الحد الأدنى من التأخير.

    +

    الميزات الرئيسية

    +
      +
    • زمن استجابة منخفض: تحويل النص إلى كلام شبه فوري، متوافق مع مخرجات نماذج اللغة الكبيرة
    • +
    • صوت عالي الجودة: يولد كلامًا واضحًا وطبيعيًا
    • +
    • دعم محركات تحويل النص إلى كلام المتعددة: يدعم OpenAI TTS، Elevenlabs، Azure Speech Services، Coqui TTS، gTTS وSystem TTS
    • +
    • متعدد اللغات
    • +
    • قوي وموثوق: يضمن التشغيل المستمر من خلال آلية احتياطية، ويتحول إلى محركات بديلة في حالة حدوث انقطاعات لضمان أداء موحد وموثوق
    • +
    +

    للحصول على تعليمات التثبيت، وأمثلة الاستخدام، ومرجع واجهة برمجة التطبيقات، يرجى التنقل عبر الوثائق باستخدام الشريط الجانبي.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ar/installation/index.html b/fr/ar/installation/index.html new file mode 100755 index 0000000..f12635e --- /dev/null +++ b/fr/ar/installation/index.html @@ -0,0 +1,2094 @@ + + + + + + + + + + + + + + + + + + + Installation - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Installation

    + +
    +

    ملاحظة: التثبيت الأساسي باستخدام pip install realtimetts لم يعد موصى به، استخدم pip install realtimetts[all] بدلاً من ذلك.

    +
    +

    توفر مكتبة RealtimeTTS خيارات تثبيت لمختلف التبعيات لحالتك الاستخدامية. إليك الطرق المختلفة التي يمكنك من خلالها تثبيت RealtimeTTS حسب احتياجاتك:

    +

    التثبيت الكامل

    +

    لتثبيت RealtimeTTS مع دعم لجميع محركات تحويل النص إلى كلام:

    +
    pip install -U realtimetts[all]
    +
    +

    التثبيت المخصص

    +

    يسمح RealtimeTTS بالتثبيت المخصص مع الحد الأدنى من تثبيت المكتبات. إليك الخيارات المتاحة: +- الكل: التثبيت الكامل مع دعم كل المحركات. +- النظام: يشمل قدرات تحويل النص إلى كلام الخاصة بالنظام (e.g., pyttsx3). +- azure: يضيف دعم خدمات Azure Cognitive Services Speech. +- elevenlabs: يتضمن التكامل مع واجهة برمجة تطبيقات ElevenLabs. +- openai: لخدمات الصوت من OpenAI. +- gtts: دعم Google Text-to-Speech. +- coqui: يقوم بتثبيت محرك Coqui TTS. +- minimal: يقوم بتثبيت المتطلبات الأساسية فقط بدون محرك (only needed if you want to develop an own engine)

    +

    قل أنك تريد تثبيت RealtimeTTS للاستخدام المحلي فقط مع Coqui TTS العصبي، فعليك استخدام:

    +
    pip install realtimetts[coqui]
    +
    +

    على سبيل المثال، إذا كنت ترغب في تثبيت RealtimeTTS مع دعم Azure Cognitive Services Speech و ElevenLabs و OpenAI فقط:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    تثبيت البيئة الافتراضية

    +

    بالنسبة لأولئك الذين يرغبون في إجراء تثبيت كامل داخل بيئة افتراضية، اتبعوا هذه الخطوات:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    مزيد من المعلومات حول تثبيت CUDA.

    +

    متطلبات المحرك

    +

    تتطلب المحركات المختلفة المدعومة من RealtimeTTS متطلبات فريدة. تأكد من أنك تلبي هذه المتطلبات بناءً على المحرك الذي تختاره.

    +

    محرك النظام

    +

    يعمل SystemEngine مباشرة مع قدرات تحويل النص إلى كلام المدمجة في نظامك. لا حاجة لأي إعداد إضافي.

    +

    GTTSEngine

    +

    يعمل GTTSEngine بشكل مباشر باستخدام واجهة برمجة التطبيقات لتحويل النص إلى كلام من Google Translate. لا حاجة لأي إعداد إضافي.

    +

    OpenAIEngine

    +

    لاستخدام OpenAIEngine: +- تعيين متغير البيئة OPENAI_API_KEY +- تثبيت ffmpeg (انظر تثبيت CUDA النقطة 3)

    +

    AzureEngine

    +

    لاستخدام AzureEngine، ستحتاج إلى: +- مفتاح واجهة برمجة تطبيقات تحويل النص إلى كلام من Microsoft Azure (المقدم عبر معامل منشئ AzureEngine "speech_key" أو في متغير البيئة AZURE_SPEECH_KEY) +- منطقة خدمة Microsoft Azure.

    +

    تأكد من أن لديك هذه البيانات متاحة ومهيأة بشكل صحيح عند تهيئة AzureEngine.

    +

    محرك Elevenlabs

    +

    بالنسبة لـ ElevenlabsEngine، تحتاج إلى: +- مفتاح واجهة برمجة تطبيقات Elevenlabs (المقدم عبر معلمة منشئ ElevenlabsEngine "api_key" أو في متغير البيئة ELEVENLABS_API_KEY) +- تم تثبيت mpv على نظامك (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 تثبيت mpv: + - macOS: + ``` + brew install mpv

    +
    
    +  - **لينكس وويندوز**: قم بزيارة [mpv.io](https://mpv.io/) للحصول على تعليمات التثبيت.
    +
    +### CoquiEngine
    +
    +يوفر تحويل النص إلى كلام العصبي المحلي عالي الجودة مع استنساخ الصوت.
    +
    +يقوم بتحميل نموذج TTS العصبي أولاً. في معظم الحالات، سيكون سريعًا بما يكفي للتشغيل في الوقت الحقيقي باستخدام تركيب GPU. يحتاج إلى حوالي 4-5 جيجابايت من ذاكرة الوصول العشوائي للرسوميات.
    +
    +- لاستنساخ الصوت، قدم اسم ملف wav يحتوي على الصوت المصدر كمعامل "voice" إلى مُنشئ CoquiEngine
    +- يعمل استنساخ الصوت بشكل أفضل مع ملف WAV أحادي 16 بت بتردد 22050 هرتز يحتوي على عينة قصيرة (~5-30 ثانية)
    +
    +في معظم الأنظمة، ستكون هناك حاجة لدعم وحدة معالجة الرسوميات (GPU) لتشغيلها بسرعة كافية في الوقت الحقيقي، وإلا ستواجه تلعثماً.
    +
    +
    +### تثبيت CUDA
    +
    +تُوصى هذه الخطوات لمن يحتاجون إلى **أداء أفضل** ولديهم وحدة معالجة رسومات NVIDIA متوافقة.
    +
    +> **ملاحظة**: *للتحقق مما إذا كانت بطاقة NVIDIA الرسومية الخاصة بك تدعم CUDA، قم بزيارة [قائمة بطاقات CUDA الرسمية](https://developer.nvidia.com/cuda-gpus).*
    +
    +لاستخدام Torch مع الدعم عبر CUDA، يرجى اتباع الخطوات التالية:
    +
    +> **ملاحظة**: *قد لا تحتاج إصدارات PyTorch الأحدث [إلى](https://stackoverflow.com/a/77069523) (غير مؤكدة) إلى تثبيت Toolkit (وربما cuDNN) بعد الآن.*
    +
    +1. **تثبيت NVIDIA CUDA Toolkit**:
    +    على سبيل المثال، لتثبيت Toolkit 12.X، يرجى
    +    - زيارة [تنزيلات NVIDIA CUDA](https://developer.nvidia.com/cuda-downloads).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار النظام.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +    أو لتثبيت Toolkit 11.8، يرجى
    +    - زيارة [أرشيف NVIDIA CUDA Toolkit](https://developer.nvidia.com/cuda-11-8-0-download-archive).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار نظام التشغيل.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٢. **تثبيت NVIDIA cuDNN**:
    +
    +    على سبيل المثال، لتثبيت cuDNN 8.7.0 لـ CUDA 11.x يرجى
    +    - زيارة [أرشيف NVIDIA cuDNN](https://developer.nvidia.com/rdp/cudnn-archive).
    +    - انقر على "تحميل cuDNN v8.7.0 (28 نوفمبر 2022)، لـ CUDA 11.x".
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٣. **تثبيت ffmpeg**:
    +
    +    يمكنك تنزيل مثبت لنظام التشغيل الخاص بك من [موقع ffmpeg](https://ffmpeg.org/download.html).
    +
    +    أو استخدم مدير حزم:
    +
    +    - **على أوبونتو أو ديبيان**:
    +        ```
    +        sudo apt update && sudo apt install ffmpeg
    +        ```
    +
    +    - **على أرتش لينكس**:
    +        ```
    +        sudo pacman -S ffmpeg
    +        ```
    +
    +    - **على نظام MacOS باستخدام Homebrew** ([https://brew.sh/](https://brew.sh/)):
    +        ```
    +        brew install ffmpeg
    +        ```
    +
    +    - **على نظام ويندوز باستخدام Chocolatey** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **على نظام ويندوز باستخدام سكوب** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    سكووب تثبيت ffmpeg
    +
    +
    
    +٤. **تثبيت PyTorch مع دعم CUDA**:
    +
    +    لترقية تثبيت PyTorch الخاص بك لتمكين دعم GPU باستخدام CUDA، اتبع هذه التعليمات بناءً على إصدار CUDA الخاص بك. هذا مفيد إذا كنت ترغب في تحسين أداء RealtimeSTT بقدرات CUDA.
    +
    +    - **لـ CUDA 11.8:**
    +
    +        لتحديث PyTorch و Torchaudio لدعم CUDA 11.8، استخدم الأوامر التالية:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        النص للترجمة: ```
    +
    +- **لـ CUDA 12.X:**
    +
    +
    +    لتحديث PyTorch و Torchaudio لدعم CUDA 12.X، نفذ ما يلي:
    +
    +    ```
    +    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +

    النص للترجمة:

    +
    استبدل `2.3.1` بالإصدار من PyTorch الذي يتناسب مع نظامك ومتطلباتك.
    +
    +
      +
    1. إصلاح لحل مشاكل التوافق: + إذا واجهت مشاكل في توافق المكتبات، حاول ضبط هذه المكتبات على إصدارات ثابتة:
    2. +
    +

    النص للترجمة: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ar/usage/index.html b/fr/ar/usage/index.html new file mode 100755 index 0000000..d53c05a --- /dev/null +++ b/fr/ar/usage/index.html @@ -0,0 +1,2035 @@ + + + + + + + + + + + + + + + + + + + الاستخدام - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    الاستخدام

    +

    البداية السريعة

    +

    إليك مثال بسيط للاستخدام:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    نص التغذية

    +

    يمكنك إدخال سلاسل فردية:

    +
    stream.feed("مرحبًا، هذه جملة.")
    +
    +

    أو يمكنك تزويد المولدات ومكررات الشخصيات للبث المباشر:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    التشغيل

    +

    بشكل غير متزامن:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    بالتزامن:

    +
    stream.play()
    +
    +

    اختبار المكتبة

    +

    تحتوي الدليل الفرعي للاختبار على مجموعة من السكربتات لمساعدتك في تقييم وفهم قدرات مكتبة RealtimeTTS.

    +

    يرجى ملاحظة أن معظم الاختبارات لا تزال تعتمد على واجهة برمجة التطبيقات "القديمة" من OpenAI (<1.0.0). يتم توضيح استخدام واجهة برمجة التطبيقات الجديدة من OpenAI في openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • الوصف: عرض توضيحي بأسلوب "مرحبا بالعالم" لأبسط استخدامات المكتبة.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • الوصف: عرض شامل يوضح معظم الميزات التي توفرها المكتبة.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • الوصف: اختبار لمحرك تحويل النص إلى كلام المحلي coqui.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt.
      • +
      • الوصف: ترجمات فورية إلى ست لغات مختلفة.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt. +السياق: - الوصف:
        +النص للترجمة: - الوصف: تم تفعيل كلمة الاستيقاظ وواجهة المستخدم المعتمدة على الصوت لواجهة برمجة تطبيقات OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • التبعيات: شغل الأمر pip install openai keyboard realtimestt.
      • +
      • الوصف: اختر محرك تحويل النص إلى كلام والصوت قبل بدء المحادثة مع الذكاء الاصطناعي.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • المتطلبات: قم بتشغيل pip install openai realtimestt.
      • +
      • الوصف: روبوت محادثة بسيط في 20 سطر من الشيفرة.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • التبعيات: شغّل pip install openai.
      • +
      • الوصف: عرض بسيط لكيفية دمج المكتبة مع نماذج اللغة الكبيرة (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • التبعيات: شغل pip install openai. +السياق: - الوصف:
        +النص للترجمة: - الوصف: يعرض الاستدعاءات ويتيح لك التحقق من أوقات الكمون في بيئة تطبيقات العالم الحقيقي.
      • +
      +
    • +
    +

    إيقاف مؤقت، استئناف وإيقاف

    +

    أوقف بث الصوت:

    +
    stream.pause()
    +
    +

    استئناف بث متوقف:

    +
    stream.resume()
    +
    +

    أوقف البث فورًا:

    +
    stream.stop()
    +
    +

    متطلبات موضحة

    +
      +
    • إصدار بايثون:
    • +
    • المطلوب: بايثون >= 3.9, < 3.13
    • +
    • +

      السبب: المكتبة تعتمد على مكتبة GitHub "TTS" من coqui، والتي تتطلب إصدارات بايثون في هذا النطاق.

      +
    • +
    • +

      PyAudio: لإنشاء دفق صوتي خارجي

      +
    • +
    • +

      stream2sentence: لتقسيم تدفق النص الوارد إلى جمل

      +
    • +
    • +

      pyttsx3: محرك تحويل النص إلى كلام للنظام

      +
    • +
    • +

      pydub: لتحويل تنسيقات مقاطع الصوت

      +
    • +
    • +

      azure-cognitiveservices-speech: محرك تحويل النص إلى كلام من Azure

      +
    • +
    • +

      elevenlabs: محرك تحويل النص إلى كلام من Elevenlabs

      +
    • +
    • +

      coqui-TTS: مكتبة Coqui XTTS لتحويل النص إلى كلام بجودة عالية باستخدام الشبكات العصبية المحلية

      +
    • +
    +

    تحية إلى معهد أبحاث إيديا على الحفاظ على نسخة مفرعة من coqui tts.

    +
      +
    • +

      openai: للتفاعل مع واجهة برمجة التطبيقات لتحويل النص إلى كلام من OpenAI

      +
    • +
    • +

      gtts: تحويل النص إلى كلام باستخدام Google Translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/contributing/index.html b/fr/contributing/index.html index 818ee0b..55bbf05 100755 --- a/fr/contributing/index.html +++ b/fr/contributing/index.html @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/fr/de/api/index.html b/fr/de/api/index.html new file mode 100755 index 0000000..7d720a6 --- /dev/null +++ b/fr/de/api/index.html @@ -0,0 +1,2777 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Konfiguration

    +

    Initialisierungsparameter für TextToAudioStream

    +

    Bei der Initialisierung der TextToAudioStream-Klasse haben Sie verschiedene Möglichkeiten, deren Verhalten anzupassen. Hier sind die verfügbaren Parameter:

    +

    engine (BaseEngine)

    +
      +
    • Typ: BaseEngine
    • +
    • Erforderlich: Ja
    • +
    • Beschreibung: Die zugrunde liegende Engine, die für die Text-zu-Audio-Synthese verantwortlich ist. Sie müssen eine Instanz von BaseEngine oder deren Unterklasse bereitstellen, um die Audio-Synthese zu ermöglichen.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird ausgelöst, wenn der Textstream beginnt. Verwenden Sie sie für beliebige Setup- oder Logging-Aufgaben.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aktiviert, wenn der Textstream endet. Sie können diese für Aufräumarbeiten oder Logging verwenden.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream startet. Nützlich für UI-Aktualisierungen oder Event-Logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream stoppt. Ideal für Ressourcenbereinigung oder Nachbearbeitungsaufgaben.
    • +
    +

    on_character (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn ein einzelnes Zeichen verarbeitet wird.
    • +
    +

    output_device_index (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: None
    • +
    • Beschreibung: Gibt den zu verwendenden Ausgabegeräte-Index an. None verwendet das Standardgerät.
    • +
    +

    tokenizer (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: nltk
    • +
    • Beschreibung: Tokenizer für die Satztrennung (derzeit werden "nltk" und "stanza" unterstützt).
    • +
    +

    language (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: en
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +

    muted (bool)

    +
      +
    • Typ: Bool
    • +
    • Erforderlich: Nein
    • +
    • Standard: False
    • +
    • Beschreibung: Globaler Stummschaltungsparameter. Wenn True, wird kein pyAudio-Stream geöffnet. Deaktiviert die Audiowiedergabe über lokale Lautsprecher.
    • +
    +

    level (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: logging.WARNING
    • +
    • Beschreibung: Legt den Logging-Level für den internen Logger fest.
    • +
    +

    Beispielverwendung:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methoden

    +

    play und play_async

    +

    Diese Methoden sind für die Ausführung der Text-zu-Audio-Synthese und das Abspielen des Audio-Streams verantwortlich. Der Unterschied besteht darin, dass play eine blockierende Funktion ist, während play_async in einem separaten Thread läuft, wodurch andere Operationen fortgesetzt werden können.

    +

    Parameter:

    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn auf True gesetzt, priorisiert die Methode die Geschwindigkeit und generiert und spielt Satzfragmente schneller ab. Dies ist nützlich für Anwendungen, bei denen die Latenz wichtig ist.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, wird die schnelle Satzfragmentverarbeitung auf alle Sätze angewendet, nicht nur auf den ersten.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, ermöglicht es die Ausgabe mehrerer Satzfragmente anstelle von nur einem.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Beschreibung: Gibt die Zeit in Sekunden für den Puffer-Schwellenwert an, der die Gleichmäßigkeit und Kontinuität der Audiowiedergabe beeinflusst.

      +
    • +
    • +

      Funktionsweise: Bevor ein neuer Satz synthetisiert wird, prüft das System, ob mehr Audiomaterial im Puffer verbleibt als die durch buffer_threshold_seconds angegebene Zeit. Wenn ja, ruft es einen weiteren Satz vom Textgenerator ab, unter der Annahme, dass es diesen neuen Satz innerhalb des Zeitfensters, das durch das verbleibende Audio im Puffer bereitgestellt wird, abrufen und synthetisieren kann. Dieser Prozess ermöglicht es der Text-to-Speech-Engine, mehr Kontext für eine bessere Synthese zu haben und verbessert dadurch das Benutzererlebnis.

      +
    • +
    +

    Ein höherer Wert sorgt für mehr vorgepuffertes Audio und reduziert die Wahrscheinlichkeit von Stille oder Lücken während der Wiedergabe. Wenn Sie Unterbrechungen oder Pausen bemerken, erhöhen Sie diesen Wert.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Legt die minimale Zeichenlänge fest, ab der ein String als zu synthetisierender Satz betrachtet wird. Dies beeinflusst, wie Textabschnitte verarbeitet und abgespielt werden.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Die minimale Anzahl von Zeichen, die für das erste Satzfragment erforderlich sind, bevor es ausgegeben wird.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn aktiviert, protokolliert es die Textabschnitte während ihrer Synthese zu Audio. Hilfreich für Überprüfung und Debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn True, wird der generierte Text vor der Verarbeitung zurückgesetzt.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Beschreibung: Wenn gesetzt, wird das Audio in der angegebenen WAV-Datei gespeichert.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, nachdem ein einzelnes Satzfragment synthetisiert wurde.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, bevor ein einzelnes Satzfragment synthetisiert wird.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Callback-Funktion, die aufgerufen wird, wenn ein einzelner Audio-Chunk bereit ist.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Beschreibung: Tokenizer für die Satztrennung. Unterstützt derzeit "nltk" und "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine benutzerdefinierte Funktion, die Sätze aus dem Eingabetext tokenisiert. Sie können Ihren eigenen leichtgewichtigen Tokenizer bereitstellen, wenn Sie mit nltk und stanza unzufrieden sind. Die Funktion sollte Text als String entgegennehmen und getrennte Sätze als Liste von Strings zurückgeben.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Die Anzahl der Zeichen, die verwendet werden, um den Kontext für die Satzerkennung festzulegen. Ein größerer Kontext verbessert die Genauigkeit der Satzerkennung.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Zusätzliche Kontextgröße für den Vorausblick bei der Satzerkennung.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn True, wird die Audiowiedergabe über lokale Lautsprecher deaktiviert. Nützlich, wenn Sie in eine Datei synthetisieren oder Audio-Chunks verarbeiten möchten, ohne sie abzuspielen.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Beschreibung: Eine Zeichenkette von Zeichen, die als Satztrennzeichen betrachtet werden.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Beschreibung: Die Anzahl der Wörter, nach denen das erste Satzfragment erzwungen ausgegeben wird.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/de/contributing/index.html b/fr/de/contributing/index.html new file mode 100755 index 0000000..84502f9 --- /dev/null +++ b/fr/de/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Beitrag zu RealtimeTTS

    +

    Wir freuen uns über Beiträge zu RealtimeTTS! Hier sind einige Möglichkeiten, wie Sie dazu beitragen können:

    +
      +
    1. +

      Berichterstattung über Fehler: Wenn Sie einen Fehler finden, öffnen Sie bitte ein Problem in unserem [GitHub-Repository] (https://github.com/KoljaB/RealtimeTTS/issues).

      +
    2. +
    3. +

      ** Verbesserungsvorschläge**: Haben Sie Ideen für neue Funktionen oder Verbesserungen? Wir würden sie gerne hören! Öffnen Sie eine Ausgabe, um Verbesserungen vorzuschlagen.

      +
    4. +
    5. +

      Code Beiträge: Möchten Sie eine neue Funktion hinzufügen oder einen Fehler beheben? Super! Bitte folgen Sie diesen Schritten:

      +
    6. +
    7. Forken Sie das Repository
    8. +
    9. Erstellen Sie einen neuen Zweig für Ihre Funktion
    10. +
    11. Nehmen Sie Ihre Änderungen vor
    12. +
    13. +

      Senden Sie eine Pull-Anfrage mit einer klaren Beschreibung Ihrer Änderungen

      +
    14. +
    15. +

      Dokumentation: Helfen Sie uns, unsere Dokumentation zu verbessern, indem Sie Tippfehler reparieren, Beispiele hinzufügen oder verwirrende Abschnitte klären.

      +
    16. +
    17. +

      ** Hinzufügen neuer Motoren**: Wenn Sie Unterstützung für eine neue TTS-Engine hinzufügen möchten, öffnen Sie bitte zuerst eine Ausgabe, um die Implementierung zu besprechen.

      +
    18. +
    +

    Vielen Dank, dass Sie dazu beigetragen haben, RealtimeTTS besser zu machen!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/de/faq/index.html b/fr/de/faq/index.html new file mode 100755 index 0000000..65df03a --- /dev/null +++ b/fr/de/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Häufig gestellte Fragen

    +

    Antworten auf häufig gestellte Fragen zu RealtimeTTS finden Sie auf unserer [FAQ-Seite auf GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Diese Seite behandelt verschiedene Themen, darunter:

    +
      +
    • Verwendung verschiedener TTS-Motoren
    • +
    • Umgang mit mehrsprachigem Text
    • +
    • Leistungsoptimierung
    • +
    • Fehlerbehebung bei häufigen Problemen
    • +
    +

    Für genauere Informationen besuchen Sie bitte den obigen Link.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/de/index.html b/fr/de/index.html new file mode 100755 index 0000000..339a238 --- /dev/null +++ b/fr/de/index.html @@ -0,0 +1,1864 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +
      +
    • Einfach zu verwendende Text-to-Speech-Bibliothek mit geringer Latenz für Echtzeitanwendungen*
    • +
    +

    Über das Projekt

    +

    RealtimeTTS ist eine hochmoderne Text-to-Speech-Bibliothek (TTS), die für Echtzeitanwendungen entwickelt wurde. Es zeichnet sich durch seine Fähigkeit aus, Textströme schnell in hochwertige Hörausgaben mit minimaler Latenz umzuwandeln.

    +

    Hauptmerkmale

    +
      +
    • Niedrige Latenz: nahezu sofortige Text-zu-Sprache-Konvertierung, kompatibel mit LLM-Ausgaben
    • +
    • High-Quality Audio: erzeugt klare und natürlich klingende Sprache
    • +
    • Multiple TTS Engine Support: unterstützt OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS und System TTS
    • +
    • Mehrsprachig
    • +
    • Robust und zuverlässig: sorgt für einen kontinuierlichen Betrieb durch einen Rückfallmechanismus und wechselt bei Störungen zu alternativen Motoren, die eine gleichbleibende Leistung und Zuverlässigkeit gewährleisten
    • +
    +

    Für Installationsanweisungen, Nutzungsbeispiele und API-Referenzen navigieren Sie bitte über die Seitenleiste durch die Dokumentation.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/de/installation/index.html b/fr/de/installation/index.html new file mode 100755 index 0000000..e64693e --- /dev/null +++ b/fr/de/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Deutsch

    + +
    +

    Hinweis: Die Basisinstallation mit pip install realtimetts wird nicht mehr empfohlen. Verwenden Sie stattdessen pip install realtimetts[all].

    +
    +

    Die RealtimeTTS-Bibliothek bietet verschiedene Installationsoptionen für Abhängigkeiten je nach Anwendungsfall. Hier sind die verschiedenen Möglichkeiten, RealtimeTTS entsprechend Ihren Anforderungen zu installieren:

    +

    Vollständige Installation

    +

    Um RealtimeTTS mit Unterstützung für alle TTS-Engines zu installieren:

    +
    pip install -U realtimetts[all]
    +
    +

    Benutzerdefinierte Installation

    +

    RealtimeTTS ermöglicht eine benutzerdefinierte Installation mit minimalen Bibliotheksinstallationen. Folgende Optionen stehen zur Verfügung: +- all: Vollständige Installation mit Unterstützung aller Engines. +- system: Enthält systemspezifische TTS-Fähigkeiten (z.B. pyttsx3). +- azure: Fügt Azure Cognitive Services Speech-Unterstützung hinzu. +- elevenlabs: Enthält Integration mit der ElevenLabs API. +- openai: Für OpenAI-Sprachdienste. +- gtts: Google Text-to-Speech-Unterstützung. +- coqui: Installiert die Coqui TTS-Engine. +- minimal: Installiert nur die Basisanforderungen ohne Engine (nur erforderlich, wenn Sie eine eigene Engine entwickeln möchten)

    +

    Wenn Sie RealtimeTTS nur für die lokale neuronale Coqui TTS-Nutzung installieren möchten, verwenden Sie:

    +
    pip install realtimetts[coqui]
    +
    +

    Wenn Sie beispielsweise RealtimeTTS nur mit Azure Cognitive Services Speech, ElevenLabs und OpenAI-Unterstützung installieren möchten:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installation in virtueller Umgebung

    +

    Für diejenigen, die eine vollständige Installation in einer virtuellen Umgebung durchführen möchten, folgen Sie diesen Schritten:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Weitere Informationen zur CUDA-Installation.

    +

    Engine-Anforderungen

    +

    Verschiedene von RealtimeTTS unterstützte Engines haben spezifische Anforderungen. Stellen Sie sicher, dass Sie diese Anforderungen je nach gewählter Engine erfüllen.

    +

    SystemEngine

    +

    Die SystemEngine funktioniert von Haus aus mit den integrierten TTS-Fähigkeiten Ihres Systems. Keine zusätzliche Einrichtung erforderlich.

    +

    GTTSEngine

    +

    Die GTTSEngine funktioniert von Haus aus mit der Google Translate Text-to-Speech API. Keine zusätzliche Einrichtung erforderlich.

    +

    OpenAIEngine

    +

    Zur Verwendung der OpenAIEngine: +- Umgebungsvariable OPENAI_API_KEY setzen +- ffmpeg installieren (siehe CUDA-Installation Punkt 3)

    +

    AzureEngine

    +

    Für die Verwendung der AzureEngine benötigen Sie: +- Microsoft Azure Text-to-Speech API-Schlüssel (bereitgestellt über den AzureEngine-Konstruktorparameter "speech_key" oder in der Umgebungsvariable AZURE_SPEECH_KEY) +- Microsoft Azure Service-Region

    +

    Stellen Sie sicher, dass diese Anmeldedaten verfügbar und korrekt konfiguriert sind, wenn Sie die AzureEngine initialisieren.

    +

    ElevenlabsEngine

    +

    Für die ElevenlabsEngine benötigen Sie: +- Elevenlabs API-Schlüssel (bereitgestellt über den ElevenlabsEngine-Konstruktorparameter "api_key" oder in der Umgebungsvariable ELEVENLABS_API_KEY) +- mpv auf Ihrem System installiert (wesentlich für das Streaming von MPEG-Audio, Elevenlabs liefert nur MPEG)

    +

    🔹 Installation von mpv: + - macOS: + brew install mpv

    +
      +
    • Linux und Windows: Besuchen Sie mpv.io für Installationsanweisungen.
    • +
    +

    CoquiEngine

    +

    Bietet hochwertige, lokale, neuronale TTS mit Stimmklonen.

    +

    Lädt zuerst ein neurales TTS-Modell herunter. In den meisten Fällen ist es mit GPU-Synthese schnell genug für Echtzeit. Benötigt etwa 4-5 GB VRAM.

    +
      +
    • Um eine Stimme zu klonen, übergeben Sie den Dateinamen einer Wave-Datei, die die Quellstimme enthält, als "voice"-Parameter an den CoquiEngine-Konstruktor
    • +
    • Stimmklonen funktioniert am besten mit einer 22050 Hz Mono 16bit WAV-Datei, die eine kurze (~5-30 Sek.) Probe enthält
    • +
    +

    Auf den meisten Systemen wird GPU-Unterstützung benötigt, um schnell genug für Echtzeit zu sein, andernfalls werden Sie Stottern erleben.

    +

    CUDA-Installation

    +

    Diese Schritte werden für diejenigen empfohlen, die bessere Leistung benötigen und eine kompatible NVIDIA GPU haben.

    +
    +

    Hinweis: Um zu überprüfen, ob Ihre NVIDIA GPU CUDA unterstützt, besuchen Sie die offizielle CUDA GPUs-Liste.

    +
    +

    Um torch mit CUDA-Unterstützung zu verwenden, folgen Sie bitte diesen Schritten:

    +
    +

    Hinweis: Neuere PyTorch-Installationen könnten (unbestätigt) keine Toolkit (und möglicherweise cuDNN) Installation mehr benötigen.

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkit installieren: + Um beispielsweise Toolkit 12.X zu installieren:

      +
        +
      • Besuchen Sie NVIDIA CUDA Downloads.
      • +
      • Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version.
      • +
      • Laden Sie die Software herunter und installieren Sie sie.
      • +
      +

      oder um Toolkit 11.8 zu installieren: +- Besuchen Sie NVIDIA CUDA Toolkit Archive. +- Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version. +- Laden Sie die Software herunter und installieren Sie sie.

      +
    2. +
    3. +

      NVIDIA cuDNN installieren:

      +

      Um beispielsweise cuDNN 8.7.0 für CUDA 11.x zu installieren: +- Besuchen Sie NVIDIA cuDNN Archive. +- Klicken Sie auf "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Laden Sie die Software herunter und installieren Sie sie.

      +
    4. +
    5. +

      ffmpeg installieren:

      +

      Sie können einen Installer für Ihr Betriebssystem von der ffmpeg Website herunterladen.

      +

      Oder verwenden Sie einen Paketmanager:

      +
        +
      • +

        Unter Ubuntu oder Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Unter Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Unter MacOS mit Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Unter Windows mit Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Unter Windows mit Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      PyTorch mit CUDA-Unterstützung installieren:

      +

      Um Ihre PyTorch-Installation zu aktualisieren und GPU-Unterstützung mit CUDA zu aktivieren, folgen Sie diesen Anweisungen basierend auf Ihrer spezifischen CUDA-Version. Dies ist nützlich, wenn Sie die Leistung von RealtimeSTT mit CUDA-Fähigkeiten verbessern möchten.

      +
        +
      • +

        Für CUDA 11.8:

        +

        Um PyTorch und Torchaudio für CUDA 11.8-Unterstützung zu aktualisieren, verwenden Sie folgende Befehle:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Für CUDA 12.X:

        +

        Um PyTorch und Torchaudio für CUDA 12.X-Unterstützung zu aktualisieren, führen Sie Folgendes aus:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Ersetzen Sie 2.3.1 durch die Version von PyTorch, die Ihrem System und Ihren Anforderungen entspricht.

      +
    8. +
    9. +

      Behebung von Kompatibilitätsproblemen: + Wenn Sie auf Bibliotheks-Kompatibilitätsprobleme stoßen, versuchen Sie, diese Bibliotheken auf feste Versionen zu setzen:

      +
    10. +
    +

    `

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    `

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/de/usage/index.html b/fr/de/usage/index.html new file mode 100755 index 0000000..131d647 --- /dev/null +++ b/fr/de/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    + +
    + + + +
    +
    + + + + +

    Verwendung

    +

    Schnellstart

    +

    Hier ist ein grundlegendes Beispiel:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # ersetzen Sie dies mit Ihrer TTS-Engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Text Einspeisung

    +

    Sie können einzelne Zeichenketten einspeisen:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oder Sie können Generatoren und Zeichen-Iteratoren für Echtzeit-Streaming verwenden:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Wiedergabe

    +

    Asynchron:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchron:

    +
    stream.play()
    +
    +

    Testen der Bibliothek

    +

    Das Test-Unterverzeichnis enthält eine Reihe von Skripten, die Ihnen helfen, die Fähigkeiten der RealtimeTTS-Bibliothek zu bewerten und zu verstehen.

    +

    Beachten Sie, dass die meisten Tests noch auf der "alten" OpenAI API (<1.0.0) basieren. Die Verwendung der neuen OpenAI API wird in openai_1.0_test.py demonstriert.

    +
      +
    • +

      simple_test.py

      +
        +
      • Beschreibung: Eine "Hello World"-ähnliche Demonstration der einfachsten Bibliotheksnutzung.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Beschreibung: Eine umfassende Demonstration der meisten Funktionen der Bibliothek.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Beschreibung: Test der lokalen Coqui TTS-Engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Echtzeitübersetzungen in sechs verschiedene Sprachen.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Durch Aktivierungswort gesteuerte und sprachbasierte Benutzeroberfläche für die OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai keyboard realtimestt aus.
      • +
      • Beschreibung: Wählen Sie TTS-Engine und Stimme vor Beginn der KI-Konversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Ein grundlegender Sprachbot in 20 Codezeilen.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Einfache Demonstration der Integration der Bibliothek mit Large Language Models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Zeigt die Callbacks und lässt Sie die Latenzzeiten in einer realen Anwendungsumgebung überprüfen.
      • +
      +
    • +
    +

    Pause, Fortsetzen & Stoppen

    +

    Audiostream pausieren:

    +
    stream.pause()
    +
    +

    Pausierten Stream fortsetzen:

    +
    stream.resume()
    +
    +

    Stream sofort stoppen:

    +
    stream.stop()
    +
    +

    Erläuterung der Anforderungen

    +
      +
    • Python Version:
    • +
    • Erforderlich: Python >= 3.9, < 3.13
    • +
    • +

      Grund: Die Bibliothek hängt von der GitHub-Bibliothek "TTS" von Coqui ab, die Python-Versionen in diesem Bereich erfordert.

      +
    • +
    • +

      PyAudio: zur Erstellung eines Audio-Ausgabestreams

      +
    • +
    • +

      stream2sentence: zum Aufteilen des eingehenden Textstreams in Sätze

      +
    • +
    • +

      pyttsx3: System Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      pydub: zur Konvertierung von Audio-Chunk-Formaten

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS Text-to-Speech Bibliothek für hochwertige lokale neuronale TTS

      +
    • +
    +

    Dank an das Idiap Research Institute für die Pflege eines Forks von Coqui TTS.

    +
      +
    • +

      openai: zur Interaktion mit der OpenAI TTS API

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech Konvertierung

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/en/api/index.html b/fr/en/api/index.html index 492cc22..0b56a66 100755 --- a/fr/en/api/index.html +++ b/fr/en/api/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -544,50 +669,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + @@ -1272,6 +1775,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1380,6 +2009,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/en/contributing/index.html b/fr/en/contributing/index.html index a2fb6cc..37fe74d 100755 --- a/fr/en/contributing/index.html +++ b/fr/en/contributing/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/fr/en/faq/index.html b/fr/en/faq/index.html index faeb0a4..eae81c1 100755 --- a/fr/en/faq/index.html +++ b/fr/en/faq/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/fr/en/index.html b/fr/en/index.html index 249d4e6..0eed307 100755 --- a/fr/en/index.html +++ b/fr/en/index.html @@ -132,50 +132,49 @@
  • - - - - - - - - + @@ -497,51 +496,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -690,50 +815,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + @@ -1014,6 +1517,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1122,6 +1751,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/en/usage/index.html b/fr/en/usage/index.html index 1bf0355..04ee4df 100755 --- a/fr/en/usage/index.html +++ b/fr/en/usage/index.html @@ -9,7 +9,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - + +
  • + + + + + + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • @@ -967,6 +1470,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1075,6 +1704,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/es/api/index.html b/fr/es/api/index.html index 90e4c5f..2a0dccb 100755 --- a/fr/es/api/index.html +++ b/fr/es/api/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -544,50 +669,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1441,6 +2070,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/es/contributing/index.html b/fr/es/contributing/index.html index 62bfa08..53f0586 100755 --- a/fr/es/contributing/index.html +++ b/fr/es/contributing/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/fr/es/faq/index.html b/fr/es/faq/index.html index bdace8c..c4f9cb9 100755 --- a/fr/es/faq/index.html +++ b/fr/es/faq/index.html @@ -12,6 +12,8 @@ + + @@ -132,50 +134,49 @@
  • - - - - - - - - + @@ -434,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -499,51 +498,6 @@ - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -690,50 +815,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + @@ -1014,6 +1517,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1122,6 +1751,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/es/usage/index.html b/fr/es/usage/index.html index 37021ef..58a080b 100755 --- a/fr/es/usage/index.html +++ b/fr/es/usage/index.html @@ -12,7 +12,7 @@ - + @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - + +
  • + + + + + + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • @@ -967,6 +1470,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1075,6 +1704,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/faq/index.html b/fr/faq/index.html index b6a381e..3936e5e 100755 --- a/fr/faq/index.html +++ b/fr/faq/index.html @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/fr/fr/api/index.html b/fr/fr/api/index.html index 6aa067a..8bbc9c0 100755 --- a/fr/fr/api/index.html +++ b/fr/fr/api/index.html @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -544,50 +669,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1398,6 +2027,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/fr/contributing/index.html b/fr/fr/contributing/index.html index 3220397..f347b9c 100755 --- a/fr/fr/contributing/index.html +++ b/fr/fr/contributing/index.html @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/fr/fr/faq/index.html b/fr/fr/faq/index.html index df41037..25a1945 100755 --- a/fr/fr/faq/index.html +++ b/fr/fr/faq/index.html @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -436,50 +435,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - diff --git a/fr/fr/index.html b/fr/fr/index.html index 3eb30e4..759850c 100755 --- a/fr/fr/index.html +++ b/fr/fr/index.html @@ -134,50 +134,49 @@
  • - - - - - - - - + @@ -499,51 +498,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -699,50 +824,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + @@ -1023,6 +1526,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1131,6 +1760,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/fr/usage/index.html b/fr/fr/usage/index.html index b94af4d..3a5f30d 100755 --- a/fr/fr/usage/index.html +++ b/fr/fr/usage/index.html @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - + +
  • + + + + + + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • @@ -967,6 +1470,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1075,6 +1704,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/hi/api/index.html b/fr/hi/api/index.html new file mode 100755 index 0000000..9005ea7 --- /dev/null +++ b/fr/hi/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    हिंदी

    + +

    कॉन्फ़िगरेशन

    +

    TextToAudioStream के लिए प्रारंभिक पैरामीटर

    +

    जब आप TextToAudioStream क्लास का इनिशियलाइज़ेशन करते हैं, तो आपके पास इसके व्यवहार को कस्टमाइज़ करने के लिए विभिन्न विकल्प होते हैं। यहाँ उपलब्ध पैरामीटर हैं:

    +

    engine (BaseEngine)

    +
      +
    • प्रकार: BaseEngine
    • +
    • आवश्यकता: हाँ
    • +
    • विवरण: टेक्स्ट-से-ऑडियो सिंथेसिस के लिए ज़िम्मेदार आधार इंजन। आपको ऑडियो सिंथेसिस को सक्षम करने के लिए BaseEngine या इसके सबक्लास का एक इंस्टेंस प्रदान करना होगा।
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब ट्रिगर होता है जब टेक्स्ट स्ट्रीम शुरू होती है। इसे किसी सेटअप या लॉगिंग के लिए उपयोग करें।
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन टेक्स्ट स्ट्रीम समाप्त होने पर सक्रिय होता है। इसे क्लीनअप कार्यों या लॉगिंग के लिए उपयोग किया जा सकता है।
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब चालू होता है जब ऑडियो स्ट्रीम शुरू होती है। यह UI अपडेट या इवेंट लॉगिंग के लिए सहायक है।
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन ऑडियो स्ट्रीम समाप्त होने पर कॉल किया जाता है। यह संसाधन क्लीनअप या पोस्ट-प्रोसेसिंग कार्यों के लिए आदर्श है।
    • +
    +

    on_character (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब कॉल किया जाता है जब एकल कैरेक्टर प्रोसेस किया जाता है।
    • +
    +

    output_device_index (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: उपयोग करने के लिए आउटपुट डिवाइस इंडेक्स निर्दिष्ट करता है। None डिफ़ॉल्ट डिवाइस का उपयोग करता है।
    • +
    +

    tokenizer (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: nltk
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग किए जाने वाले टोकनाइज़र (वर्तमान में "nltk" और "stanza" समर्थित हैं)।
    • +
    +

    language (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: en
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +

    muted (bool)

    +
      +
    • प्रकार: बूल
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: ग्लोबल म्यूटेड पैरामीटर। अगर True है, तो कोई pyAudio स्ट्रीम नहीं खोली जाएगी। स्थानीय स्पीकरों के माध्यम से ऑडियो प्लेबैक को अक्षम करता है और प्ले पैरामीटर म्यूट सेटिंग को ओवरराइड करता है।
    • +
    +

    level (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: logging.WARNING
    • +
    • विवरण: आंतरिक लॉगर के लिए लॉगिंग स्तर सेट करता है। यह पायथन के बिल्ट-इन logging मॉड्यूल से कोई भी इंटीजर कॉन्स्टेंट हो सकता है।
    • +
    +

    उदाहरण उपयोग:

    +
    engine = YourEngine()  # अपने इंजन के साथ प्रतिस्थापित करें
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    मेथड्स

    +

    play और play_async

    +

    ये मेथड्स टेक्स्ट-से-ऑडियो सिंथेसिस को निष्पादित करने और ऑडियो स्ट्रीम प्ले करने के लिए जिम्मेदार हैं। play एक ब्लॉकिंग फंक्शन है, जबकि play_async एक अलग थ्रेड में चलता है, जिससे अन्य ऑपरेशंस जारी रह सकते हैं।

    +
    पैरामीटर:
    +
    fast_sentence_fragment (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह विधि स्पीड को प्राथमिकता देगी, और वाक्यांशों को तेजी से जनरेट और प्ले करेगी। यह ऐसे अनुप्रयोगों के लिए सहायक है जहाँ विलंबता मायने रखती है।
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो सभी वाक्यों पर फास्ट वाक्यांश प्रोसेसिंग लागू करता है।
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह एकल के बजाय एकाधिक वाक्यांश उत्पन्न करने की अनुमति देता है।
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • डिफ़ॉल्ट: 0.0
    • +
    • +

      विवरण: बफ़रिंग सीमा के लिए समय को सेकंड में निर्दिष्ट करता है, जो ऑडियो प्लेबैक की स्थिरता और निरंतरता को प्रभावित करता है।

      +
    • +
    • +

      कैसे काम करता है: नए वाक्य का सिंथेसिस करने से पहले, सिस्टम यह जांचता है कि क्या बफ़र में निर्दिष्ट समय से अधिक ऑडियो सामग्री बची है। इससे यह सुनिश्चित होता है कि अधिक प्री-बफ़र किए गए ऑडियो से प्लेबैक में मौन या अंतराल कम हो।

      +
    • +
    +
    minimum_sentence_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: एक स्ट्रिंग को सिंथेसाइज़ करने के लिए वाक्य के रूप में मानने के लिए न्यूनतम कैरेक्टर की लंबाई सेट करता है।
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: पहले वाक्यांश के लिए आवश्यक न्यूनतम कैरेक्टर की संख्या सेट करता है।
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: सक्षम होने पर, ऑडियो में सिंथेसाइज़ होते समय टेक्स्ट के अंशों को लॉग करता है।
    • +
    +
    reset_generated_text (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: अगर True है, तो प्रोसेसिंग से पहले जनरेट किए गए टेक्स्ट को रीसेट करता है।
    • +
    +
    output_wavfile (str)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: यदि सेट है, तो ऑडियो को निर्दिष्ट WAV फाइल में सहेजता है।
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने के बाद कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने से पहले कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल ऑडियो टुकड़ा तैयार होने पर कॉल किया जाने वाला कॉलबैक फंक्शन।
    • +
    +
    tokenizer (str)
    +
      +
    • डिफ़ॉल्ट: "nltk"
    • +
    • विवरण: वाक्य विभाजन के लिए टोकनाइज़र। वर्तमान में "nltk" और "stanza" का समर्थन है।
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: टेक्स्ट से वाक्य को टोकनाइज़ करने
    • +
    +

    वाला एक कस्टम फंक्शन। यदि आप nltk और stanza से संतुष्ट नहीं हैं, तो अपना स्वयं का टोकनाइज़र प्रदान कर सकते हैं।

    +
    language (str)
    +
      +
    • डिफ़ॉल्ट: "en"
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +
    context_size (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाने के लिए संदर्भ स्थापित करने के लिए प्रयुक्त कैरेक्टर की संख्या।
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाते समय आगे देखने के लिए अतिरिक्त संदर्भ आकार।
    • +
    +
    muted (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: यदि True है, तो स्थानीय स्पीकर के माध्यम से ऑडियो प्लेबैक को अक्षम करता है।
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • डिफ़ॉल्ट: ".?!;:,\n…)]}。-"
    • +
    • विवरण: उन कैरेक्टर की स्ट्रिंग जो वाक्य सीमाओं के रूप में माने जाते हैं।
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • डिफ़ॉल्ट: 15
    • +
    • विवरण: पहले वाक्यांश को उत्पन्न करने के लिए आवश्यक शब्दों की संख्या।
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/hi/contributing/index.html b/fr/hi/contributing/index.html new file mode 100755 index 0000000..91c65ac --- /dev/null +++ b/fr/hi/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS में योगदान करें

    +

    हम RealtimeTTS में आपके योगदान का स्वागत करते हैं! आप इन तरीकों से योगदान कर सकते हैं:

    +
      +
    1. +

      बग रिपोर्ट करना: यदि आपको कोई बग मिलता है, तो कृपया हमारे GitHub रिपॉजिटरी पर एक इश्यू खोलें।

      +
    2. +
    3. +

      सुधारों का सुझाव देना: क्या आपके पास नई सुविधाओं या सुधारों के लिए सुझाव हैं? हमें उन्हें सुनकर खुशी होगी! कृपया सुधारों का सुझाव देने के लिए एक इश्यू खोलें।

      +
    4. +
    5. +

      कोड योगदान: कोई नई सुविधा जोड़ना चाहते हैं या किसी बग को ठीक करना चाहते हैं? शानदार! कृपया इन चरणों का पालन करें:

      +
    6. +
    7. रिपॉजिटरी को फोर्क करें
    8. +
    9. अपने फीचर के लिए एक नई ब्रांच बनाएं
    10. +
    11. अपने बदलाव करें
    12. +
    13. +

      अपने बदलावों का स्पष्ट विवरण देते हुए एक पुल रिक्वेस्ट सबमिट करें

      +
    14. +
    15. +

      दस्तावेज़ीकरण: टाइपो सुधारने, उदाहरण जोड़ने या भ्रमित करने वाले भागों को स्पष्ट करके हमें अपने दस्तावेज़ीकरण में सुधार करने में मदद करें।

      +
    16. +
    17. +

      नए इंजनों को जोड़ना: यदि आप किसी नए TTS इंजन के लिए समर्थन जोड़ना चाहते हैं, तो कृपया पहले एक इश्यू खोलें ताकि हम इसके कार्यान्वयन पर चर्चा कर सकें।

      +
    18. +
    +

    RealtimeTTS को बेहतर बनाने में मदद करने के लिए धन्यवाद!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/hi/faq/index.html b/fr/hi/faq/index.html new file mode 100755 index 0000000..2a5c991 --- /dev/null +++ b/fr/hi/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    अक्सर पूछे जाने वाले प्रश्न

    +

    RealtimeTTS से संबंधित अक्सर पूछे जाने वाले प्रश्नों के उत्तर के लिए, कृपया हमारे GitHub पर FAQ पेज पर जाएँ।

    +

    यह पेज विभिन्न विषयों को कवर करता है, जिनमें शामिल हैं:

    +
      +
    • विभिन्न TTS इंजनों का उपयोग
    • +
    • बहुभाषी टेक्स्ट को संभालना
    • +
    • प्रदर्शन में सुधार
    • +
    • सामान्य समस्याओं का समाधान
    • +
    +

    अधिक विस्तृत जानकारी के लिए, कृपया ऊपर दिए गए लिंक पर जाएँ।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/hi/index.html b/fr/hi/index.html new file mode 100755 index 0000000..5cf848a --- /dev/null +++ b/fr/hi/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    रीयल-टाइम अनुप्रयोगों के लिए उपयोग में आसान, कम-विलंबता वाला टेक्स्ट-टू-स्पीच लाइब्रेरी

    +

    परियोजना के बारे में

    +

    RealtimeTTS एक अत्याधुनिक टेक्स्ट-टू-स्पीच (TTS) लाइब्रेरी है, जिसे रीयल-टाइम अनुप्रयोगों के लिए डिज़ाइन किया गया है। इसकी सबसे बड़ी विशेषता यह है कि यह न्यूनतम विलंबता के साथ टेक्स्ट स्ट्रीम को तेज़ी से उच्च-गुणवत्ता वाली ध्वनि में परिवर्तित कर सकता है।

    +

    मुख्य विशेषताएँ

    +
      +
    • कम विलंबता: लगभग तात्कालिक टेक्स्ट-टू-स्पीच रूपांतरण, LLM आउटपुट के अनुकूल
    • +
    • उच्च-गुणवत्ता वाली ध्वनि: स्पष्ट और प्राकृतिक-ध्वनि उत्पन्न करता है
    • +
    • विभिन्न TTS इंजनों का समर्थन: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS और System TTS का समर्थन करता है
    • +
    • बहुभाषी समर्थन
    • +
    • मजबूत और विश्वसनीय: लगातार संचालन सुनिश्चित करने के लिए एक फ़ॉलबैक तंत्र का उपयोग करता है, व्यवधानों के मामले में वैकल्पिक इंजनों पर स्विच करता है, जो स्थिरता और विश्वसनीयता की गारंटी देता है
    • +
    +

    स्थापना निर्देशों, उपयोग के उदाहरणों और API संदर्भ के लिए, कृपया साइडबार का उपयोग करके दस्तावेज़ में नेविगेट करें।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/hi/installation/index.html b/fr/hi/installation/index.html new file mode 100755 index 0000000..75207ad --- /dev/null +++ b/fr/hi/installation/index.html @@ -0,0 +1,2216 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | HN

    +
    +

    नोट: pip install realtimetts का बेसिक इंस्टॉलेशन अब अनुशंसित नहीं है, इसके बजाय pip install realtimetts[all] का उपयोग करें।

    +
    +

    RealtimeTTS लाइब्रेरी विभिन्न निर्भरताओं के साथ इंस्टॉलेशन के विकल्प प्रदान करती है, ताकि आप अपने उपयोग के अनुसार इसे स्थापित कर सकें। यहाँ इंस्टॉलेशन के विभिन्न विकल्प दिए गए हैं:

    +

    पूर्ण स्थापना

    +

    सभी TTS इंजनों के समर्थन के साथ RealtimeTTS स्थापित करने के लिए:

    +
    pip install -U realtimetts[all]
    +
    +

    कस्टम इंस्टॉलेशन

    +

    RealtimeTTS में न्यूनतम लाइब्रेरी इंस्टॉलेशन के साथ कस्टम इंस्टॉलेशन की सुविधा है। उपलब्ध विकल्प:

    +
      +
    • all: सभी इंजनों के साथ पूर्ण इंस्टॉलेशन।
    • +
    • system: सिस्टम-विशिष्ट TTS क्षमताएँ शामिल करता है (जैसे, pyttsx3)।
    • +
    • azure: Azure Cognitive Services Speech का समर्थन जोड़ता है।
    • +
    • elevenlabs: ElevenLabs API के साथ एकीकरण।
    • +
    • openai: OpenAI वॉइस सेवाओं के लिए।
    • +
    • gtts: Google Text-to-Speech समर्थन।
    • +
    • coqui: Coqui TTS इंजन स्थापित करता है।
    • +
    • minimal: केवल बेस आवश्यकताओं को स्थापित करता है, बिना किसी इंजन के (यदि आप अपना इंजन विकसित करना चाहते हैं तो इसकी आवश्यकता होती है)।
    • +
    +

    उदाहरण के लिए, केवल स्थानीय न्यूरल Coqui TTS उपयोग के लिए RealtimeTTS स्थापित करना हो, तो उपयोग करें:

    +
    pip install realtimetts[coqui]
    +
    +

    अगर आप केवल Azure Cognitive Services Speech, ElevenLabs, और OpenAI का समर्थन चाहते हैं तो:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    वर्चुअल एनवायरनमेंट इंस्टॉलेशन

    +

    यदि आप एक वर्चुअल एनवायरनमेंट में पूर्ण स्थापना करना चाहते हैं, तो ये कदम अपनाएँ:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA इंस्टॉलेशन के बारे में अधिक जानकारी।

    +

    इंजन आवश्यकताएँ

    +

    RealtimeTTS द्वारा समर्थित विभिन्न इंजनों की अलग-अलग आवश्यकताएँ हैं। अपनी पसंद के अनुसार इन आवश्यकताओं को पूरा करना सुनिश्चित करें।

    +

    SystemEngine

    +

    SystemEngine आपके सिस्टम की अंतर्निहित TTS क्षमताओं के साथ स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    GTTSEngine

    +

    GTTSEngine Google Translate के टेक्स्ट-टू-स्पीच API का उपयोग करके स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    OpenAIEngine

    +

    OpenAIEngine का उपयोग करने के लिए: +- पर्यावरण वेरिएबल OPENAI_API_KEY सेट करें +- ffmpeg स्थापित करें (देखें CUDA इंस्टॉलेशन बिंदु 3)

    +

    AzureEngine

    +

    AzureEngine का उपयोग करने के लिए आपको चाहिए: +- Microsoft Azure Text-to-Speech API कुंजी (AzureEngine में "speech_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल AZURE_SPEECH_KEY में) +- Microsoft Azure सेवा क्षेत्र।

    +

    इंस्टॉल करते समय ये क्रेडेंशियल उपलब्ध और सही तरीके से कॉन्फ़िगर करना सुनिश्चित करें।

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine के लिए, आपको चाहिए: +- Elevenlabs API कुंजी (ElevenlabsEngine में "api_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल ELEVENLABS_API_KEY में) +- आपके सिस्टम पर mpv स्थापित हो (mpeg ऑडियो स्ट्रीमिंग के लिए आवश्यक है, Elevenlabs केवल mpeg प्रदान करता है)।

    +

    🔹 mpv स्थापित करना: + - macOS: + brew install mpv

    +
      +
    • Linux और Windows: इंस्टॉलेशन के निर्देशों के लिए mpv.io पर जाएं।
    • +
    +

    CoquiEngine

    +

    उच्च गुणवत्ता, स्थानीय, न्यूरल TTS प्रदान करता है जिसमें वॉइस-क्लोनिंग भी शामिल है।

    +

    पहली बार एक न्यूरल TTS मॉडल डाउनलोड करता है। अधिकतर मामलों में GPU सिंथेसिस का उपयोग करते हुए रीयल-टाइम के लिए पर्याप्त तेज़ होगा। लगभग 4-5 GB VRAM की आवश्यकता होती है।

    +
      +
    • वॉइस क्लोन करने के लिए CoquiEngine के "voice" पैरामीटर में एक वेव फ़ाइल का नाम दर्ज करें जिसमें स्रोत वॉइस हो।
    • +
    • वॉइस क्लोनिंग के लिए 22050 Hz मोनो 16-बिट WAV फाइल के साथ लगभग 5-30 सेकंड की नमूना ऑडियो फ़ाइल सबसे अच्छा परिणाम देती है।
    • +
    +

    CUDA इंस्टॉलेशन

    +

    वे लोग जिनके पास NVIDIA GPU है और जो बेहतर प्रदर्शन चाहते हैं, उनके लिए ये कदम अनुशंसित हैं।

    +
    +

    नोट: अगर आपका NVIDIA GPU CUDA को सपोर्ट करता है तो आधिकारिक CUDA GPUs सूची पर जाँचें।

    +
    +

    CUDA समर्थन के साथ torch का उपयोग करने के लिए, इन चरणों का पालन करें:

    +
      +
    1. +

      NVIDIA CUDA टूलकिट स्थापित करें: + उदाहरण के लिए, टूलकिट 12.X स्थापित करने के लिए:

      +
        +
      • NVIDIA CUDA डाउनलोड पर जाएँ।
      • +
      • अपने ऑपरेटिंग सिस्टम, सिस्टम आर्किटेक्चर, और ओएस संस्करण का चयन करें।
      • +
      • सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।
      • +
      +
    2. +
    3. +

      NVIDIA cuDNN स्थापित करें:

      +

      उदाहरण के लिए, CUDA 11.x के लिए cuDNN 8.7.0 स्थापित करने के लिए: +- NVIDIA cuDNN Archive पर जाएं। +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x" पर क्लिक करें। +- सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।

      +
    4. +
    5. +

      ffmpeg स्थापित करें:

      +

      आप अपने OS के लिए ffmpeg वेबसाइट से इंस्टॉलर डाउनलोड कर सकते हैं: ffmpeg Website

      +
    6. +
    7. +

      CUDA समर्थन के साथ PyTorch स्थापित करें:

      +

      अपने सिस्टम और आवश्यकताओं के अनुसार PyTorch संस्करण को CUDA समर्थन के साथ अपग्रेड करने के लिए:

      +
        +
      • +

        CUDA 11.8 के लिए:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        CUDA 12.X के लिए:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +
    8. +
    9. +

      संगतता समस्याओं को हल करने के लिए फिक्स: + यदि आप लाइब्रेरी संगतता मुद्दों का सामना करते हैं, तो इन लाइब्रेरी संस्करणों को फिक्स करने का प्रयास करें:

      +
    10. +
    +

    pip install networkx==2.8.8 + pip install typing_extensions==4.8.0 + pip install fsspec==2023.6.0 + pip install imageio==2.31.6 + pip install numpy==1.24.3 + pip install requests==2.31.0

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/hi/usage/index.html b/fr/hi/usage/index.html new file mode 100755 index 0000000..ec803a3 --- /dev/null +++ b/fr/hi/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    उपयोग

    +

    त्वरित प्रारंभ

    +

    यहाँ एक बुनियादी उदाहरण दिया गया है:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # अपनी TTS-इंजन के साथ इसे बदलें
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    टेक्स्ट इनपुट

    +

    आप व्यक्तिगत स्ट्रिंग्स इनपुट कर सकते हैं:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    या आप वास्तविक समय-स्ट्रीमिंग के लिए जनरेटर और कैरेक्टर-इटरेटर का उपयोग कर सकते हैं:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    प्लेबैक

    +

    असिंक्रोनस:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    सिंक्रोनस:

    +
    stream.play()
    +
    +

    लाइब्रेरी का परीक्षण

    +

    परीक्षण-सबडायरेक्टरी में विभिन्न स्क्रिप्ट्स शामिल हैं, जो आपको RealtimeTTS लाइब्रेरी की क्षमताओं को समझने और आकलन करने में मदद करती हैं।

    +

    ध्यान दें कि अधिकांश परीक्षण अभी भी "पुरानी" OpenAI API (<1.0.0) पर आधारित हैं। नई OpenAI API का उपयोग openai_1.0_test.py में प्रदर्शित किया गया है।

    +
      +
    • +

      simple_test.py

      +
        +
      • विवरण: सबसे आसान लाइब्रेरी उपयोग का एक "Hello World" जैसा प्रदर्शन।
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • विवरण: लाइब्रेरी की अधिकतम कार्यक्षमता का व्यापक प्रदर्शन।
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • विवरण: स्थानीय Coqui TTS-इंजन का परीक्षण।
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: वास्तविक समय में छह विभिन्न भाषाओं में अनुवाद।
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: एक्टिवेशन-वर्ड के माध्यम से और आवाज-आधारित इंटरफ़ेस के साथ OpenAI API का उपयोग।
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • आवश्यकताएँ: pip install openai keyboard realtimestt कमांड चलाएँ।
      • +
      • विवरण: AI बातचीत शुरू करने से पहले TTS-इंजन और आवाज का चयन।
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: 20 कोड लाइनों में एक साधारण टॉकबोट।
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: लाइब्रेरी की LLMs के साथ एकीकृत करने का सरल प्रदर्शन।
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: वास्तविक वातावरण में विलंब समय को मापने और प्रतिक्रिया को प्रदर्शित करता है।
      • +
      +
    • +
    +

    रुकना, पुनः आरंभ करना और रोकना

    +

    ऑडियो स्ट्रीम को रोकें:

    +
    stream.pause()
    +
    +

    रुकी हुई स्ट्रीम पुनः प्रारंभ करें:

    +
    stream.resume()
    +
    +

    स्ट्रीम तुरंत रोकें:

    +
    stream.stop()
    +
    +

    आवश्यकताओं का स्पष्टीकरण

    +
      +
    • Python संस्करण:
    • +
    • आवश्यक: Python >= 3.9, < 3.13
    • +
    • +

      कारण: लाइब्रेरी Coqui की GitHub लाइब्रेरी "TTS" पर निर्भर करती है, जो इस संस्करण सीमा का समर्थन करती है।

      +
    • +
    • +

      PyAudio: ऑडियो आउटपुट स्ट्रीम बनाने के लिए

      +
    • +
    • +

      stream2sentence: इनकमिंग टेक्स्ट स्ट्रीम को वाक्यों में विभाजित करने के लिए

      +
    • +
    • +

      pyttsx3: सिस्टम Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      pydub: ऑडियो चंक फॉर्मेट्स में कन्वर्शन के लिए

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      coqui-TTS: उच्च गुणवत्ता वाली स्थानीय न्यूरल TTS के लिए Coqui का XTTS Text-to-Speech लाइब्रेरी

      +
    • +
    +

    Idiap Research Institute को उनके Coqui TTS का Fork बनाए रखने के लिए धन्यवाद।

    +
      +
    • +

      openai: OpenAI TTS API के साथ बातचीत के लिए

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech कन्वर्शन

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/index.html b/fr/index.html index 16ec1ab..04b23a8 100755 --- a/fr/index.html +++ b/fr/index.html @@ -134,50 +134,49 @@ - - - - - - - - + @@ -499,51 +498,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - -
  • - - - - - - - - - @@ -436,6 +435,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -699,50 +824,68 @@ - - - + + + + + + +
  • + + + + + Deutsch + + + +
  • - - - + + + + - - - - - - - -
  • - - - - +
  • + - - + +
  • + + + + + + + + + + +
  • + - + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + @@ -1023,6 +1526,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1131,6 +1760,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/it/api/index.html b/fr/it/api/index.html new file mode 100755 index 0000000..1d54dea --- /dev/null +++ b/fr/it/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Italiano

    + +

    Configurazione

    +

    Parametri di Inizializzazione per TextToAudioStream

    +

    Quando si inizializza la classe TextToAudioStream, sono disponibili diverse opzioni per personalizzare il suo comportamento. Ecco i parametri disponibili:

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Obbligatorio: Sì
    • +
    • Descrizione: Il motore sottostante responsabile della sintesi da testo ad audio. È necessario fornire un'istanza di BaseEngine o della sua sottoclasse per abilitare la sintesi audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando inizia lo stream di testo. Utilizzala per qualsiasi configurazione o registrazione necessaria.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando termina lo stream di testo. Puoi utilizzarla per attività di pulizia o registrazione.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene invocata quando inizia lo stream audio. Utile per aggiornamenti dell'interfaccia utente o registrazione eventi.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando lo stream audio si ferma. Ideale per la pulizia delle risorse o attività di post-elaborazione.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando viene elaborato un singolo carattere.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: None
    • +
    • Descrizione: Specifica l'indice del dispositivo di output da utilizzare. None usa il dispositivo predefinito.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: nltk
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi (attualmente sono supportati "nltk" e "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: en
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Obbligatorio: No
    • +
    • Predefinito: False
    • +
    • Descrizione: Parametro globale di silenziamento. Se True, non verrà aperto alcuno stream pyAudio. Disabilita la riproduzione audio attraverso gli altoparlanti locali (nel caso in cui si desideri sintetizzare su file o elaborare chunk audio) e sovrascrive l'impostazione muted dei parametri di riproduzione.
    • +
    +

    level (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: logging.WARNING
    • +
    • Descrizione: Imposta il livello di logging per il logger interno. Può essere qualsiasi costante intera dal modulo logging integrato di Python.
    • +
    +

    Esempio di Utilizzo:

    +
    engine = YourEngine()  # Sostituire con il proprio motore
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Metodi

    +

    play e play_async

    +

    Questi metodi sono responsabili dell'esecuzione della sintesi testo-audio e della riproduzione dello stream audio. La differenza è che play è una funzione bloccante, mentre play_async viene eseguito in un thread separato, permettendo ad altre operazioni di procedere.

    +
    Parametri:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Quando impostato su True, il metodo darà priorità alla velocità, generando e riproducendo i frammenti di frase più rapidamente. Questo è utile per applicazioni dove la latenza è importante.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, applica l'elaborazione rapida dei frammenti di frase a tutte le frasi, non solo alla prima.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, permette di produrre più frammenti di frase invece di uno solo.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Predefinito: 0.0
    • +
    • +

      Descrizione: Specifica il tempo in secondi per la soglia di buffering, che influenza la fluidità e la continuità della riproduzione audio.

      +
    • +
    • +

      Come Funziona: Prima di sintetizzare una nuova frase, il sistema controlla se nel buffer rimane più materiale audio del tempo specificato da buffer_threshold_seconds. In caso affermativo, recupera un'altra frase dal generatore di testo, assumendo che possa recuperare e sintetizzare questa nuova frase entro la finestra temporale fornita dall'audio rimanente nel buffer. Questo processo consente al motore di sintesi vocale di avere più contesto per una migliore sintesi, migliorando l'esperienza utente.

      +
    • +
    +

    Un valore più alto assicura che ci sia più audio pre-bufferizzato, riducendo la probabilità di silenzi o interruzioni durante la riproduzione. Se si verificano interruzioni o pause, considera di aumentare questo valore.

    +
    minimum_sentence_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Imposta la lunghezza minima in caratteri per considerare una stringa come una frase da sintetizzare. Questo influisce su come vengono elaborati e riprodotti i chunk di testo.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Il numero minimo di caratteri richiesti per il primo frammento di frase prima della produzione.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando abilitato, registra i chunk di testo mentre vengono sintetizzati in audio. Utile per il controllo e il debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Se True, reimposta il testo generato prima dell'elaborazione.
    • +
    +
    output_wavfile (str)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Se impostato, salva l'audio nel file WAV specificato.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata dopo che un singolo frammento di frase è stato sintetizzato.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata prima che un singolo frammento di frase venga sintetizzato.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Funzione di callback che viene chiamata quando un singolo chunk audio è pronto.
    • +
    +
    tokenizer (str)
    +
      +
    • Predefinito: "nltk"
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi. Attualmente supporta "nltk" e "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione personalizzata che tokenizza le frasi dal testo di input. Puoi fornire il tuo tokenizer leggero se non sei soddisfatto di nltk e stanza. Dovrebbe prendere il testo come stringa e restituire le frasi divise come lista di stringhe.
    • +
    +
    language (str)
    +
      +
    • Predefinito: "en"
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +
    context_size (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Il numero di caratteri utilizzati per stabilire il contesto per il rilevamento dei confini della frase. Un contesto più ampio migliora la precisione nel rilevare i confini delle frasi.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Dimensione del contesto aggiuntiva per guardare avanti durante il rilevamento dei confini delle frasi.
    • +
    +
    muted (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Se True, disabilita la riproduzione audio attraverso gli altoparlanti locali. Utile quando si desidera sintetizzare su file o elaborare chunk audio senza riprodurli.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Predefinito: ".?!;:,\n…)]}。-"
    • +
    • Descrizione: Una stringa di caratteri che sono considerati delimitatori di frase.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Predefinito: 15
    • +
    • Descrizione: Il numero di parole dopo il quale viene forzata la produzione del primo frammento di frase.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/it/contributing/index.html b/fr/it/contributing/index.html new file mode 100755 index 0000000..0895d27 --- /dev/null +++ b/fr/it/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuire a RealtimeTTS

    +

    Accogliamo con favore i contributi a RealtimeTTS! Ecco alcuni modi in cui puoi contribuire:

    +
      +
    1. +

      Segnalazione di bug: Se trovi un bug, apri un problema sul nostro repository GitHub.

      +
    2. +
    3. +

      Suggerendo Miglioramenti: Hai idee per nuove funzionalità o miglioramenti? Ci piacerebbe sentirli! Apri un problema per suggerire miglioramenti.

      +
    4. +
    5. +

      Contributi del codice: vuoi aggiungere una nuova funzionalità o correggere un bug? Grande! Si prega di seguire questi passaggi:

      +
    6. +
    7. Forchetta il repository
    8. +
    9. Crea un nuovo ramo per la tua funzione
    10. +
    11. Apporta le tue modifiche
    12. +
    13. +

      Invia una richiesta pull con una chiara descrizione delle modifiche

      +
    14. +
    15. +

      Documentazione: aiutaci a migliorare la nostra documentazione correggendo errori di battitura, aggiungendo esempi o chiarendo sezioni confuse.

      +
    16. +
    17. +

      Aggiunta di nuovi motori: se si desidera aggiungere il supporto per un nuovo motore TTS, aprire prima un problema per discutere l'implementazione.

      +
    18. +
    +

    Grazie per aver contribuito a rendere RealtimeTTS migliore!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/it/faq/index.html b/fr/it/faq/index.html new file mode 100755 index 0000000..295866f --- /dev/null +++ b/fr/it/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Domande frequenti

    +

    Per le risposte alle domande più frequenti su RealtimeTTS, fare riferimento alla nostra [pagina FAQ su GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Questa pagina tratta vari argomenti tra cui

    +
      +
    • Utilizzo di diversi motori TTS
    • +
    • Gestione del testo multilingue
    • +
    • Ottimizzazione delle prestazioni
    • +
    • Risoluzione dei problemi comuni
    • +
    +

    Per informazioni più dettagliate, visitare il link sopra.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/it/index.html b/fr/it/index.html new file mode 100755 index 0000000..8dac4b5 --- /dev/null +++ b/fr/it/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Libreria text-to-speech facile da usare e a bassa latenza per applicazioni in tempo reale

    +

    Informazioni sul progetto

    +

    RealtimeTTS è una libreria text-to-speech (TTS) all'avanguardia progettata per applicazioni in tempo reale. Si distingue per la sua capacità di convertire rapidamente i flussi di testo in output uditivo di alta qualità con una latenza minima.

    +

    Caratteristiche principali

    +
      +
    • Bassa latenza: conversione testo-discorso quasi istantanea, compatibile con le uscite LLM
    • +
    • Audio di alta qualità: generi un discorso chiaro e dal suono naturale
    • +
    • Multiplo supporto motore TTS: supportoa OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS e System TTS
    • +
    • Multilingue
    • +
    • Robust and Reliable: assicurazione un divertimento continuo attraverso un meccanismo di ripiego, passa a motori alternativi in caso di interdizioni garantite prestazioni e affidabilità costanti
    • +
    +

    Per istruzioni di installazione, esempi di utilizzo e ritorno API, navigare nella documentazione utilizzando la barra laterale.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/it/installation/index.html b/fr/it/installation/index.html new file mode 100755 index 0000000..a63a18c --- /dev/null +++ b/fr/it/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Italiano

    + +
    +

    Nota: L'installazione base con pip install realtimetts non è più raccomandata, utilizzare invece pip install realtimetts[all].

    +
    +

    La libreria RealtimeTTS fornisce opzioni di installazione per varie dipendenze in base al tuo caso d'uso. Ecco i diversi modi in cui puoi installare RealtimeTTS in base alle tue necessità:

    +

    Installazione Completa

    +

    Per installare RealtimeTTS con supporto per tutti i motori TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Installazione Personalizzata

    +

    RealtimeTTS permette un'installazione personalizzata con installazioni minime delle librerie. Ecco le opzioni disponibili: +- all: Installazione completa con tutti i motori supportati. +- system: Include le capacità TTS specifiche del sistema (es. pyttsx3). +- azure: Aggiunge il supporto Azure Cognitive Services Speech. +- elevenlabs: Include l'integrazione con l'API ElevenLabs. +- openai: Per i servizi vocali OpenAI. +- gtts: Supporto Google Text-to-Speech. +- coqui: Installa il motore Coqui TTS. +- minimal: Installa solo i requisiti base senza motore (necessario solo se si vuole sviluppare un proprio motore)

    +

    Se vuoi installare RealtimeTTS solo per l'uso locale di Coqui TTS neurale, dovresti utilizzare:

    +
    pip install realtimetts[coqui]
    +
    +

    Per esempio, se vuoi installare RealtimeTTS solo con il supporto per Azure Cognitive Services Speech, ElevenLabs e OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installazione in Ambiente Virtuale

    +

    Per chi vuole eseguire un'installazione completa all'interno di un ambiente virtuale, seguire questi passaggi:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Maggiori informazioni sull'installazione CUDA.

    +

    Requisiti dei Motori

    +

    I diversi motori supportati da RealtimeTTS hanno requisiti unici. Assicurati di soddisfare questi requisiti in base al motore che scegli.

    +

    SystemEngine

    +

    Il SystemEngine funziona subito con le capacità TTS integrate nel tuo sistema. Non è necessaria alcuna configurazione aggiuntiva.

    +

    GTTSEngine

    +

    Il GTTSEngine funziona subito utilizzando l'API text-to-speech di Google Translate. Non è necessaria alcuna configurazione aggiuntiva.

    +

    OpenAIEngine

    +

    Per utilizzare OpenAIEngine: +- impostare la variabile d'ambiente OPENAI_API_KEY +- installare ffmpeg (vedi installazione CUDA punto 3)

    +

    AzureEngine

    +

    Per utilizzare AzureEngine, avrai bisogno di: +- Chiave API Microsoft Azure Text-to-Speech (fornita tramite il parametro del costruttore AzureEngine "speech_key" o nella variabile d'ambiente AZURE_SPEECH_KEY) +- Regione del servizio Microsoft Azure.

    +

    Assicurati di avere queste credenziali disponibili e configurate correttamente quando inizializzi AzureEngine.

    +

    ElevenlabsEngine

    +

    Per ElevenlabsEngine, hai bisogno di: +- Chiave API Elevenlabs (fornita tramite il parametro del costruttore ElevenlabsEngine "api_key" o nella variabile d'ambiente ELEVENLABS_API_KEY) +- mpv installato sul tuo sistema (essenziale per lo streaming audio mpeg, Elevenlabs fornisce solo mpeg).

    +

    🔹 Installazione di mpv: + - macOS: + brew install mpv

    +
      +
    • Linux e Windows: Visita mpv.io per le istruzioni di installazione.
    • +
    +

    CoquiEngine

    +

    Fornisce TTS neurale locale di alta qualità con clonazione vocale.

    +

    Scarica prima un modello TTS neurale. Nella maggior parte dei casi sarà abbastanza veloce per il tempo reale utilizzando la sintesi GPU. Richiede circa 4-5 GB di VRAM.

    +
      +
    • per clonare una voce inviare il nome del file di un file wave contenente la voce sorgente come parametro "voice" al costruttore CoquiEngine
    • +
    • la clonazione vocale funziona meglio con un file WAV mono 16bit a 22050 Hz contenente un breve campione (circa 5-30 sec)
    • +
    +

    Sulla maggior parte dei sistemi sarà necessario il supporto GPU per funzionare abbastanza velocemente per il tempo reale, altrimenti si verificheranno interruzioni.

    +

    Installazione CUDA

    +

    Questi passaggi sono raccomandati per chi richiede migliori prestazioni e ha una GPU NVIDIA compatibile.

    +
    +

    Nota: per verificare se la tua GPU NVIDIA supporta CUDA, visita la lista ufficiale delle GPU CUDA.

    +
    +

    Per utilizzare torch con supporto via CUDA segui questi passaggi:

    +
    +

    Nota: le installazioni più recenti di pytorch potrebbero (non verificato) non necessitare più dell'installazione del Toolkit (e possibilmente cuDNN).

    +
    +
      +
    1. +

      Installa NVIDIA CUDA Toolkit: + Per esempio, per installare il Toolkit 12.X, per favore

      +
        +
      • Visita NVIDIA CUDA Downloads.
      • +
      • Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo.
      • +
      • Scarica e installa il software.
      • +
      +

      o per installare il Toolkit 11.8, per favore +- Visita NVIDIA CUDA Toolkit Archive. +- Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo. +- Scarica e installa il software.

      +
    2. +
    3. +

      Installa NVIDIA cuDNN:

      +

      Per esempio, per installare cuDNN 8.7.0 per CUDA 11.x per favore +- Visita NVIDIA cuDNN Archive. +- Clicca su "Download cuDNN v8.7.0 (28 Novembre 2022), per CUDA 11.x". +- Scarica e installa il software.

      +
    4. +
    5. +

      Installa ffmpeg:

      +

      Puoi scaricare un installer per il tuo sistema operativo dal sito web ffmpeg.

      +

      Oppure usa un gestore pacchetti:

      +
        +
      • +

        Su Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Su Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Su MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Su Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Su Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installa PyTorch con supporto CUDA:

      +

      Per aggiornare la tua installazione PyTorch per abilitare il supporto GPU con CUDA, segui queste istruzioni basate sulla tua versione CUDA specifica. Questo è utile se desideri migliorare le prestazioni di RealtimeSTT con le capacità CUDA.

      +
        +
      • +

        Per CUDA 11.8:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 11.8, usa i seguenti comandi:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Per CUDA 12.X:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 12.X, esegui quanto segue:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Sostituisci 2.3.1 con la versione di PyTorch che corrisponde al tuo sistema e requisiti.

      +
    8. +
    9. +

      Fix per risolvere problemi di compatibilità: + Se riscontri problemi di compatibilità delle librerie, prova a impostare queste librerie a versioni fisse:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/it/usage/index.html b/fr/it/usage/index.html new file mode 100755 index 0000000..d16aba1 --- /dev/null +++ b/fr/it/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Utilizzo

    +

    Avvio Rapido

    +

    Ecco un esempio di utilizzo base:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # sostituisci con il tuo motore TTS
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Inserimento del Testo

    +

    Puoi inserire singole stringhe:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oppure puoi inserire generatori e iteratori di caratteri per lo streaming in tempo reale:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Riproduzione

    +

    In modo asincrono:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    In modo sincrono:

    +
    stream.play()
    +
    +

    Test della Libreria

    +

    La sottodirectory test contiene una serie di script per aiutarti a valutare e comprendere le capacità della libreria RealtimeTTS.

    +

    Nota che la maggior parte dei test si basa ancora sulla "vecchia" API OpenAI (<1.0.0). L'utilizzo della nuova API OpenAI è dimostrato in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descrizione: Una dimostrazione stile "hello world" dell'utilizzo più semplice della libreria.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descrizione: Una dimostrazione completa che mostra la maggior parte delle funzionalità fornite dalla libreria.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descrizione: Test del motore TTS coqui locale.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Traduzioni in tempo reale in sei lingue diverse.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Interfaccia utente vocale attivata da parola chiave per l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dipendenze: Esegui pip install openai keyboard realtimestt.
      • +
      • Descrizione: Scegli il motore TTS e la voce prima di iniziare la conversazione con l'IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Un talkbot base in 20 righe di codice.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Semplice dimostrazione di come integrare la libreria con i modelli linguistici di grandi dimensioni (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Mostra i callback e ti permette di verificare i tempi di latenza in un ambiente applicativo reale.
      • +
      +
    • +
    +

    Pausa, Ripresa e Stop

    +

    Metti in pausa lo stream audio:

    +
    stream.pause()
    +
    +

    Riprendi uno stream in pausa:

    +
    stream.resume()
    +
    +

    Ferma immediatamente lo stream:

    +
    stream.stop()
    +
    +

    Requisiti Spiegati

    +
      +
    • Versione Python:
    • +
    • Richiesto: Python >= 3.9, < 3.13
    • +
    • +

      Motivo: La libreria dipende dalla libreria GitHub "TTS" di coqui, che richiede versioni Python in questo intervallo.

      +
    • +
    • +

      PyAudio: per creare uno stream audio di output

      +
    • +
    • +

      stream2sentence: per dividere il flusso di testo in ingresso in frasi

      +
    • +
    • +

      pyttsx3: Motore di conversione text-to-speech di sistema

      +
    • +
    • +

      pydub: per convertire i formati dei chunk audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motore di conversione text-to-speech di Azure

      +
    • +
    • +

      elevenlabs: Motore di conversione text-to-speech di Elevenlabs

      +
    • +
    • +

      coqui-TTS: Libreria text-to-speech XTTS di Coqui per TTS neurale locale di alta qualità

      +
    • +
    +

    Un ringraziamento speciale a Idiap Research Institute per il mantenimento di un fork di coqui tts.

    +
      +
    • +

      openai: per interagire con l'API TTS di OpenAI

      +
    • +
    • +

      gtts: Conversione text-to-speech di Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ja/api/index.html b/fr/ja/api/index.html new file mode 100755 index 0000000..94eebc0 --- /dev/null +++ b/fr/ja/api/index.html @@ -0,0 +1,2814 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    日本語

    + +

    設定

    +

    TextToAudioStreamの初期化パラメータ

    +

    TextToAudioStreamクラスを初期化する際、その動作をカスタマイズするための様々なオプションがあります。利用可能なパラメータは以下の通りです:

    +

    engine (BaseEngine)

    +
      +
    • : BaseEngine
    • +
    • 必須: はい
    • +
    • 説明: テキストから音声への合成を担当する基盤エンジンです。音声合成を有効にするには、BaseEngineまたはそのサブクラスのインスタンスを提供する必要があります。
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが開始されたときにトリガーされるオプションのコールバック関数です。セットアップやログ記録に使用できます。
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが終了したときに実行されるオプションのコールバック関数です。クリーンアップタスクやログ記録に使用できます。
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが開始されたときに呼び出されるオプションのコールバック関数です。UIの更新やイベントログに役立ちます。
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが停止したときに呼び出されるオプションのコールバック関数です。リソースのクリーンアップや後処理タスクに最適です。
    • +
    +

    on_character (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 一文字が処理されるたびに呼び出されるオプションのコールバック関数です。
    • +
    +

    output_device_index (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: None
    • +
    • 説明: 使用する出力デバイスのインデックスを指定します。Noneの場合はデフォルトデバイスを使用します。
    • +
    +

    tokenizer (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: nltk
    • +
    • 説明: 文分割に使用するトークナイザー(現在は"nltk"と"stanza"がサポートされています)。
    • +
    +

    language (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: en
    • +
    • 説明: 文分割に使用する言語。
    • +
    +

    muted (bool)

    +
      +
    • : 真偽値
    • +
    • 必須: いいえ
    • +
    • デフォルト値: False
    • +
    • 説明: グローバルなミュートパラメータ。Trueの場合、pyAudioストリームは開かれません。ローカルスピーカーを介した音声再生を無効にし(ファイルへの合成や音声チャンクの処理を行う場合)、playパラメータのミュート設定を上書きします。
    • +
    +

    level (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: logging.WARNING
    • +
    • 説明: 内部ロガーのログレベルを設定します。Pythonの組み込みloggingモジュールの任意の整数定数を使用できます。
    • +
    +

    使用例:

    +
    engine = YourEngine()  # あなたのエンジンで置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +```python
    +engine = YourEngine()  # あなたのエンジンに置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    メソッド

    +

    playplay_async

    +

    これらのメソッドはテキストから音声への合成と音声ストリームの再生を担当します。playはブロッキング関数である一方、play_asyncは別のスレッドで実行され、他の操作を続行できるという違いがあります。

    +
    パラメータ:
    +
    fast_sentence_fragment (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueに設定すると、文章の断片をより速く生成して再生することを優先します。レイテンシーが重要なアプリケーションに有用です。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、最初の文だけでなく、すべての文に対して高速な文章断片処理を適用します。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、単一の文章断片ではなく、複数の文章断片を生成することができます。
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • デフォルト値: 0.0
    • +
    • +

      説明: 音声再生の滑らかさと連続性に影響を与えるバッファリングのしきい値を秒単位で指定します。

      +
    • +
    • +

      動作原理: 新しい文を合成する前に、システムはバッファにbuffer_threshold_secondsで指定された時間以上の音声材料が残っているかチェックします。残っている場合、テキストジェネレータから別の文を取得します。これは、バッファに残っている音声の時間枠内で新しい文を取得して合成できると仮定しています。このプロセスにより、テキスト音声変換エンジンがより良い合成のためのコンテキストを持つことができ、ユーザー体験を向上させます。

      +
    • +
    +

    より高い値を設定すると、より多くの音声がプリバッファされ、再生中の無音や隙間が発生する可能性が減少します。途切れや一時停止が発生する場合は、この値を増やすことを検討してください。

    +
    minimum_sentence_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 合成する文として扱う文字列の最小文字数を設定します。これはテキストチャンクの処理と再生方法に影響します。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 最初の文章断片を生成する前に必要な最小文字数です。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: 有効にすると、音声に合成されるテキストチャンクをログに記録します。監査やデバッグに役立ちます。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueの場合、処理前に生成されたテキストをリセットします。
    • +
    +
    output_wavfile (str)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 設定すると、指定されたWAVファイルに音声を保存します。
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成された後に呼び出されるコールバック関数です。
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成される前に呼び出されるコールバック関数です。
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の音声チャンクが準備できたときに呼び出されるコールバック関数です。
    • +
    +
    tokenizer (str)
    +
      +
    • デフォルト値: "nltk"
    • +
    • 説明: 文分割に使用するトークナイザーです。現在は"nltk"と"stanza"をサポートしています。
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 入力テキストから文を分割するカスタム関数です。nltkやstanzaに満足できない場合、独自の軽量トークナイザーを提供できます。テキストを文字列として受け取り、分割された文を文字列のリストとして返す必要があります。
    • +
    +
    language (str)
    +
      +
    • デフォルト値: "en"
    • +
    • 説明: 文分割に使用する言語です。
    • +
    +
    context_size (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界検出のために使用される文字数です。より大きなコンテキストは文境界の検出精度を向上させます。
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界を検出する際の先読みのための追加のコンテキストサイズです。
    • +
    +
    muted (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueの場合、ローカルスピーカーを介した音声再生を無効にします。ファイルに合成したり、音声チャンクを再生せずに処理したりする場合に有用です。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • デフォルト値: ".?!;:,\n…)]}。-"
    • +
    • 説明: 文の区切り文字として扱われる文字の文字列です。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • デフォルト値: 15
    • +
    • 説明: 最初の文章断片を生成する必要がある単語数です。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ja/contributing/index.html b/fr/ja/contributing/index.html new file mode 100755 index 0000000..38c2c8d --- /dev/null +++ b/fr/ja/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTSへの貢献

    +

    RealtimeTTSへの貢献を歓迎します! ここにあなたが貢献できるいくつかの方法があります:

    +
      +
    1. +

      バグの報告: バグを見つけた場合は、GitHubリポジトリにイシューを開いてください。

      +
    2. +
    3. +

      改善提案: 新機能や改善のアイデアはありますか? ぜひお聞かせください! 改善提案のために問題を開いてください。

      +
    4. +
    5. +

      コードの貢献: 新しい機能を追加したり、バグを修正したりしたいですか? すごい! これらの手順に従ってください。

      +
    6. +
    7. リポジトリをフォークする
    8. +
    9. 機能のための新しいブランチを作成する
    10. +
    11. 変更を加える
    12. +
    13. +

      変更内容を明確に説明したプルリクエストを提出してください

      +
    14. +
    15. +

      ドキュメント: タイポを修正したり、例を追加したり、わかりにくい部分を明確にすることで、私たちのドキュメントを改善する手助けをしてください。

      +
    16. +
    17. +

      新しいエンジンの追加: 新しいTTSエンジンのサポートを追加したい場合は、まず実装について議論するためにイシューを開いてください。

      +
    18. +
    +

    RealtimeTTSをより良くするために協力していただきありがとうございます!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ja/faq/index.html b/fr/ja/faq/index.html new file mode 100755 index 0000000..0008ccb --- /dev/null +++ b/fr/ja/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    よくある質問

    +

    RealtimeTTSに関するよくある質問の回答については、GitHubのFAQページをご覧ください。

    +

    このページでは、次のようなさまざまなトピックを取り上げています。

    +
      +
    • 異なるTTSエンジンの使用
    • +
    • 多言語テキストの取り扱い
    • +
    • パフォーマンスの最適化
    • +
    • 一般的な問題のトラブルシューティング
    • +
    +

    詳細な情報については、上記のリンクをご覧ください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ja/index.html b/fr/ja/index.html new file mode 100755 index 0000000..fbd96d0 --- /dev/null +++ b/fr/ja/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    リアルタイムTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    リアルタイムアプリケーション向けの使いやすく、低遅延のテキスト読み上げライブラリ

    +

    プロジェクトについて

    +

    RealtimeTTSは、リアルタイムアプリケーション向けに設計された最先端のテキスト読み上げ(TTS)ライブラリです。 それは、テキストストリームを迅速に高品質な音声出力に変換する能力において際立っています。

    +

    主な特徴

    +
      +
    • 低遅延: ほぼ瞬時にテキストを音声に変換し、LLM出力と互換性があります
    • +
    • 高品質な音声: 明瞭で自然な音声を生成します
    • +
    • 複数のTTSエンジンサポート: OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS、System TTSをサポートします
    • +
    • 多言語対応
    • +
    • 堅牢で信頼性が高い: フォールバックメカニズムを通じて継続的な運用を保証し、障害が発生した場合には代替エンジンに切り替えて、一貫したパフォーマンスと信頼性を確保します。
    • +
    +

    インストール手順、使用例、およびAPIリファレンスについては、サイドバーを使用してドキュメントを参照してください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ja/installation/index.html b/fr/ja/installation/index.html new file mode 100755 index 0000000..c577bcc --- /dev/null +++ b/fr/ja/installation/index.html @@ -0,0 +1,2155 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    日本語

    + +
    +

    注意: pip install realtimetts での基本インストールは推奨されなくなりました。代わりに pip install realtimetts[all] を使用してください。

    +
    +

    RealtimeTTSライブラリは、あなたのユースケースに応じたさまざまな依存関係のインストールオプションを提供します。 ニーズに応じてRealtimeTTSをインストールする方法はいくつかあります:

    +

    フルインストール

    +

    すべてのTTSエンジンに対応したRealtimeTTSをインストールするには:

    +
    pip install -U realtimetts[all]
    +
    +

    カスタムインストール

    +

    RealtimeTTSは、最小限のライブラリインストールでカスタムインストールを可能にします。 こちらが利用可能なオプションです。 +- すべて: すべてのエンジンがサポートされた完全なインストール。 +- システム: システム固有のTTS機能を含む (e.g., pyttsx3). +- azure: Azure Cognitive Services Speechサポートを追加します。 +- elevenlabs: ElevenLabs APIとの統合が含まれています。 +- openai: OpenAIの音声サービス用。 +- gtts: Google テキスト読み上げサポート。 +- coqui: Coqui TTSエンジンをインストールします。 +- minimal: エンジンなしで基本要件のみをインストール (only needed if you want to develop an own engine)

    +

    ローカルの神経系Coqui TTSでのみRealtimeTTSをインストールしたい場合は、次のようにしてください:

    +
    pip install realtimetts[coqui]
    +
    +

    例えば、Azure Cognitive Services Speech、ElevenLabs、OpenAIのサポートのみでRealtimeTTSをインストールしたい場合:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    仮想環境のインストール

    +

    仮想環境内で完全なインストールを行いたい方は、以下の手順に従ってください。

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.
    +```バット
    +python.exe -m pip install --pipをアップグレード
    +pip install -U realtimetts[all]
    +テキストを翻訳してください: ```
    +
    +[CUDAインストール](#cuda-installation)に関する詳細情報。
    +
    +## エンジン要件
    +
    +RealtimeTTSがサポートする異なるエンジンには、それぞれ独自の要件があります。 選択したエンジンに基づいてこれらの要件を満たすようにしてください。
    +
    +### システムエンジン
    +`SystemEngine`は、システムに内蔵されたTTS機能とそのまま使えます。 追加の設定は必要ありません。
    +
    +### GTTSEngine
    +`GTTSEngine`は、Google翻訳のテキスト読み上げAPIを使用して、すぐに使える状態で動作します。 追加の設定は必要ありません。
    +
    +### OpenAIエンジン
    +`OpenAIEngine`を使用するには:
    +- 環境変数 OPENAI_API_KEY を設定する
    +- ffmpeg をインストールする([CUDA インストール](#cuda-installation)の3番目のポイントを参照)
    +
    +### AzureEngine
    +`AzureEngine`を使用するには、次のものが必要です:
    +- Microsoft Azure Text-to-Speech APIキー(AzureEngineコンストラクタのパラメータ「speech_key」または環境変数AZURE_SPEECH_KEYで提供されます)
    +- マイクロソフトAzureサービスリージョン。
    +
    +`AzureEngine`を初期化する際に、これらの資格情報が利用可能で正しく設定されていることを確認してください。
    +
    +### ElevenlabsEngine
    +`ElevenlabsEngine`には、次のものが必要です:
    +- Elevenlabs APIキー(ElevenlabsEngineコンストラクタのパラメータ「api_key」または環境変数ELEVENLABS_API_KEYで提供されます)
    +- システムに`mpv`がインストールされています (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).
    +
    +  🔹 **`mpv`のインストール:**
    +  - **macOS**:
    +    ```plaintext
    +brew install mpv
    +
    +
      +
    • LinuxおよびWindows: インストール手順についてはmpv.ioをご覧ください。
    • +
    +

    CoquiEngine

    +

    高品質でローカルなニューラルTTSをボイスクローン機能付きで提供します。

    +

    まず、ニューラルTTSモデルをダウンロードします。 ほとんどの場合、GPU合成を使用すればリアルタイムで十分な速度になります。 約4〜5GBのVRAMが必要です。

    +
      +
    • 声をクローンするには、ソース音声を含むWAVファイルのファイル名を「voice」パラメータとしてCoquiEngineコンストラクタに提出してください。
    • +
    • 声のクローンは、短い(約5〜30秒)サンプルを含む22050 Hzモノ16ビットWAVファイルで最も効果的です。
    • +
    +

    ほとんどのシステムでは、リアルタイムで十分な速度を出すためにGPUサポートが必要です。さもなければ、カクつきが発生します。

    +

    CUDAのインストール

    +

    これらの手順は、より良いパフォーマンスを必要とし、互換性のあるNVIDIA GPUを持っている方に推奨されます。

    +
    +

    注意: お使いのNVIDIA GPUがCUDAをサポートしているか確認するには、公式CUDA GPUリストをご覧ください。

    +
    +

    CUDAをサポートするTorchを使用するには、次の手順に従ってください。

    +
    +

    注意: 新しいPyTorchのインストールでは、かもしれない(未確認)がToolkit(およびおそらくcuDNN)のインストールを必要としないかもしれません。

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkitをインストールする: + 例えば、Toolkit 12.Xをインストールするには、

      +
        +
      • NVIDIA CUDA Downloadsを訪れてください。
      • +
      • オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。
      • +
      +

      または、Toolkit 11.8をインストールするには、 +- NVIDIA CUDA Toolkit Archiveをご覧ください。 +- オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    2. +
    3. +

      NVIDIA cuDNNをインストールする:

      +

      例えば、CUDA 11.x用のcuDNN 8.7.0をインストールするには、次の手順を行ってください。 +- NVIDIA cuDNNアーカイブを訪問してください。 +「Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x」をクリックしてください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    4. +
    5. +

      ffmpegをインストールする:

      +

      ffmpegウェブサイトからお使いのOS用のインストーラーをダウンロードできます。

      +

      またはパッケージマネージャーを使用してください:

      +
        +
      • +

        UbuntuまたはDebianの場合: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linuxで: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrewを使用してMacOSで (https://brew.sh/): + ```plaintext +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolateyを使用してWindowsで** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **Scoopを使用してWindowsで** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    scoop install ffmpeg
    +
    +
    
    +4. **CUDAサポート付きのPyTorchをインストールする**:
    +
    +    CUDAでGPUサポートを有効にするためにPyTorchのインストールをアップグレードするには、特定のCUDAバージョンに基づいてこれらの指示に従ってください。 これは、CUDA機能を使用してRealtimeSTTのパフォーマンスを向上させたい場合に役立ちます。
    +
    +    - **CUDA 11.8の場合:**
    +
    +        PyTorchとTorchaudioをCUDA 11.8に対応させるために、次のコマンドを使用してください。
    +
    +        ```plaintext
    +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        テキストを翻訳する: ```
    +
    +- **CUDA 12.Xの場合:**
    +
    +
    +    PyTorchとTorchaudioをCUDA 12.Xに対応させるために、次のコマンドを実行してください。
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +テキストを翻訳する:

    +
    `2.3.1` をあなたのシステムと要件に合ったPyTorchのバージョンに置き換えてください。
    +
    +
      +
    1. 互換性の問題を解決するための修正: + ライブラリの互換性の問題が発生した場合は、これらのライブラリを固定バージョンに設定してみてください。
    2. +
    +

    テキストを翻訳する: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ja/usage/index.html b/fr/ja/usage/index.html new file mode 100755 index 0000000..23dda4e --- /dev/null +++ b/fr/ja/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    使用

    +

    クイックスタート

    +

    基本的な使用例は次のとおりです。

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # あなたのTTSエンジンに置き換えてください +ストリーム = TextToAudioStream(engine) +stream.feed("こんにちは、世界!") 今日はどうですか? +stream.play_async()

    +

    フィードテキスト

    +

    個別の文字列を入力できます:

    +
    stream.feed("こんにちは、これは文です。")
    +
    +

    または、リアルタイムストリーミングのためにジェネレーターやキャラクターイテレーターを使用することもできます。

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```チャット完了。作成(
    +        モデル="gpt-3.5-turbo",
    +        メッセージ=[{"役割": "ユーザー", "内容": プロンプト}],
    +        ストリーム=True
    +    ):
    +        もし (text_chunk := chunk["choices"]テキストを翻訳してください。["デルタ"].get("content")) は None ではない:
    +            テキストチャンクを生成
    +
    +テキストストリーム = 書き込み("A three-sentence relaxing speech.")
    +
    +ストリームにテキストストリームをフィードする
    +
    +```python
    +char_iterator = iter("文字を1文字ずつストリーミングします。")
    +stream.feed(char_iterator)
    +
    +

    再生

    +

    非同期で:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同時に:

    +
    stream.play()
    +
    +

    ライブラリのテスト

    +

    テストサブディレクトリには、RealtimeTTSライブラリの機能を評価し理解するための一連のスクリプトが含まれています。

    +

    ほとんどのテストはまだ「古い」OpenAI API(<1.0.0)に依存していることに注意してください。 新しいOpenAI APIの使用方法はopenai_1.0_test.pyで示されています。

    +
      +
    • +

      simple_test.py

      +
        +
      • 説明: ライブラリの最も簡単な使い方を示す「ハローワールド」スタイルのデモ。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 説明: ライブラリが提供するほとんどの機能を紹介する包括的なデモ。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 説明: ローカルのcoqui TTSエンジンのテスト。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 6つの異なる言語へのリアルタイム翻訳。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依存関係: pip install openai realtimestt を実行してください。
      • +
      • 説明: ウェイクワードがアクティブになり、OpenAI APIへの音声ベースのユーザーインターフェース。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依存関係: pip install openai keyboard realtimesttを実行してください。
      • +
      • 説明: AI会話を始める前に、TTSエンジンと声を選択してください。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 20行のコードで作る基本的なトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: ライブラリを大規模言語モデルに統合する簡単なデモ (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: コールバックを紹介し、実際のアプリケーション環境でレイテンシー時間を確認できるようにします。
      • +
      +
    • +
    +

    一時停止、再開、停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止中のストリームを再開する:

    +
    stream.resume()
    +
    +

    すぐに配信を停止してください。

    +
    stream.stop()
    +
    +

    要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必要条件: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリは、coquiのGitHubライブラリ「TTS」に依存しており、これにはこの範囲のPythonバージョンが必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するために

      +
    • +
    • +

      stream2sentence: 入力されたテキストストリームを文に分割する

      +
    • +
    • +

      pyttsx3: システム音声合成エンジン

      +
    • +
    • +

      pydub: オーディオチャンクのフォーマットを変換するために

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure テキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabs テキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTSのためのCoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap Research Institutecoqui ttsのフォークを維持していることに感謝します。

    +
      +
    • +

      openai: OpenAIのTTS APIと対話するために

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ko/api/index.html b/fr/ko/api/index.html new file mode 100755 index 0000000..c61cce0 --- /dev/null +++ b/fr/ko/api/index.html @@ -0,0 +1,2792 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    한국어

    + +

    구성

    +

    TextToAudioStream 초기화 매개변수

    +

    TextToAudioStream 클래스를 초기화할 때, 그 동작을 사용자 정의할 수 있는 다양한 옵션이 있습니다. 사용 가능한 매개변수는 다음과 같습니다:

    +

    engine (BaseEngine)

    +
      +
    • 유형: BaseEngine
    • +
    • 필수: 네 텍스트를 오디오로 변환하는 데 책임이 있는 기본 엔진. 오디오 합성을 활성화하려면 BaseEngine 또는 그 하위 클래스의 인스턴스를 제공해야 합니다.
    • +
    +

    on_text_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 시작될 때 호출됩니다. 필요한 설정이나 로깅에 사용하세요.
    • +
    +

    on_text_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 끝날 때 활성화됩니다. 이것을 정리 작업이나 로깅에 사용할 수 있습니다.
    • +
    +

    on_audio_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 시작될 때 호출됩니다. UI 업데이트나 이벤트 로깅에 유용합니다.
    • +
    +

    on_audio_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 중지될 때 호출됩니다. 리소스 정리나 후처리 작업에 적합합니다.
    • +
    +

    on_character (callable)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 단일 문자가 처리될 때 호출됩니다.
    • +
    +

    output_device_index (int)

    +
      +
    • 유형: 정수
    • +
    • 필수: 아니요 사용할 출력 장치 인덱스를 지정합니다. 아무도 기본 장치를 사용하지 않습니다.
    • +
    +

    tokenizer (string)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요
    • +
    • 기본값: nltk
    • +
    • 설명: 문장 분할에 사용할 토크나이저 (currently "nltk" and "stanza" are supported).
    • +
    +

    language (문자열)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요 문장 분할에 사용할 언어.
    • +
    +

    muted (bool)

    +
      +
    • 유형: Bool
    • +
    • 필수: 아니오
    • +
    • 기본값: False
    • +
    • 설명: 전역 음소거 매개변수. 참이면, pyAudio 스트림이 열리지 않습니다. 로컬 스피커를 통한 오디오 재생을 비활성화합니다 (파일로 합성하거나 오디오 청크를 처리하려는 경우) 및 재생 매개변수의 음소거 설정을 무시합니다.
    • +
    +

    level (int)

    +
      +
    • Type: 정수
    • +
    • Required: 아니요
    • +
    • 기본값: logging.WARNING
    • +
    • 설명: 내부 로거의 로깅 수준을 설정합니다. 이는 Python의 내장 logging 모듈에서 제공하는 정수 상수일 수 있습니다.
    • +
    +

    예시 사용법:

    +
    engine = YourEngine()  # 엔진을 당신의 엔진으로 대체하세요
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    방법

    +

    playplay_async

    +

    이 방법들은 텍스트-오디오 합성을 실행하고 오디오 스트림을 재생하는 역할을 합니다. 차이점은 play가 블로킹 함수인 반면, play_async는 별도의 스레드에서 실행되어 다른 작업이 진행될 수 있다는 것입니다.

    +
    매개변수:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: True로 설정하면, 이 방법은 속도를 우선시하여 문장 조각을 더 빨리 생성하고 재생합니다. 이는 지연 시간이 중요한 애플리케이션에 유용합니다.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 첫 번째 문장뿐만 아니라 모든 문장에 대해 빠른 문장 조각 처리를 적용합니다.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 단일 문장 조각 대신 여러 문장 조각을 생성할 수 있습니다.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • 기본값: 0.0
    • +
    • +

      설명: 버퍼링 임계값을 초 단위로 지정하며, 이는 오디오 재생의 부드러움과 연속성에 영향을 미칩니다.

      +
    • +
    • +

      작동 방식: 새로운 문장을 합성하기 전에 시스템은 버퍼에 남아 있는 오디오 자료가 buffer_threshold_seconds로 지정된 시간보다 더 많은지 확인합니다. 그렇다면, 텍스트 생성기에서 또 다른 문장을 가져오는데, 이는 버퍼에 남아 있는 오디오의 시간 창 내에서 이 새로운 문장을 가져오고 합성할 수 있다고 가정합니다. 이 과정은 텍스트 음성 변환 엔진이 더 나은 합성을 위해 더 많은 맥락을 갖도록 하여 사용자 경험을 향상시킵니다.

      +
    • +
    +

    더 높은 값은 더 많은 미리 버퍼링된 오디오를 보장하여 재생 중 침묵이나 간격이 발생할 가능성을 줄여줍니다. 중단이나 일시 정지가 발생하면 이 값을 늘려보세요.

    +
    minimum_sentence_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 문자열을 합성할 문장으로 간주하기 위한 최소 문자 길이를 설정합니다. 이것은 텍스트 청크가 처리되고 재생되는 방식에 영향을 미칩니다.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 양보하기 전에 첫 번째 문장 조각에 필요한 최소 문자 수.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 활성화되면, 텍스트 조각이 오디오로 합성될 때 로그를 기록합니다. 감사 및 디버깅에 유용합니다.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: 참이면, 처리하기 전에 생성된 텍스트를 재설정하세요.
    • +
    +
    output_wavfile (str)
    +
      +
    • 기본값: None
    • +
    • 설명: 설정된 경우, 오디오를 지정된 WAV 파일로 저장합니다.
    • +
    +
    on_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 문장 조각이 합성된 후 호출되는 콜백 함수.
    • +
    +
    before_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: 없음
    • +
    • 설명: 단일 문장 조각이 합성되기 전에 호출되는 콜백 함수.
    • +
    +
    on_audio_chunk (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 오디오 청크가 준비되면 호출되는 콜백 함수.
    • +
    +
    tokenizer (str)
    +
      +
    • 기본값: "nltk"
    • +
    • 설명: 문장 분리를 위한 토크나이저. 현재 "nltk"와 "stanza"를 지원합니다.
    • +
    +
    tokenize_sentences (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 입력 텍스트에서 문장을 토큰화하는 사용자 정의 함수. nltk와 stanza에 만족하지 않으면 자신만의 경량 토크나이저를 제공할 수 있습니다. 텍스트를 문자열로 받아서 문장으로 나눈 후 문자열 목록으로 반환해야 합니다.
    • +
    +
    language (str)
    +
      +
    • 기본값: "en"
    • +
    • 설명: 문장 분할에 사용할 언어.
    • +
    +
    context_size (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계 감지를 위한 컨텍스트를 설정하는 데 사용되는 문자 수. 더 넓은 맥락이 문장 경계를 감지하는 정확성을 높입니다.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계를 감지할 때 미리 보기 위한 추가 컨텍스트 크기.
    • +
    +
    muted (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 참이면, 로컬 스피커를 통한 오디오 재생을 비활성화합니다. 파일로 합성하거나 오디오 청크를 재생하지 않고 처리할 때 유용합니다.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 기본값: ".?!;:,\n…)]}。-" 문장 구분자로 간주되는 문자 문자열.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 기본값: 15
    • +
    • 설명: 첫 번째 문장 조각이 강제로 생성되는 단어 수.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ko/contributing/index.html b/fr/ko/contributing/index.html new file mode 100755 index 0000000..a02f660 --- /dev/null +++ b/fr/ko/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS에 기여하기

    +

    RealtimeTTS에 기여해 주시면 환영합니다! 여기 당신이 기여할 수 있는 몇 가지 방법이 있습니다:

    +
      +
    1. +

      버그 신고: 버그를 발견하셨다면, 저희 GitHub 저장소에 이슈를 열어주세요.

      +
    2. +
    3. +

      개선 사항 제안하기: 새로운 기능이나 개선 사항에 대한 아이디어가 있나요? 우리는 그것들을 듣고 싶어요! 개선 사항을 제안하기 위해 이슈를 열어주세요.

      +
    4. +
    5. +

      코드 기여: 새로운 기능을 추가하거나 버그를 수정하고 싶으신가요? 대단해! 다음 단계를 따라주세요:

      +
    6. +
    7. 저장소를 포크하세요
    8. +
    9. 기능을 위한 새로운 브랜치를 만드세요
    10. +
    11. +

      변경 사항을 적용하세요 + 변경 사항에 대한 명확한 설명과 함께 풀 리퀘스트를 제출하세요.

      +
    12. +
    13. +

      문서화: 오타를 수정하거나 예제를 추가하거나 혼란스러운 부분을 명확히 하여 문서화를 개선하는 데 도움을 주세요.

      +
    14. +
    15. +

      새 엔진 추가하기: 새로운 TTS 엔진을 추가하고 싶다면, 먼저 구현에 대해 논의하기 위해 이슈를 열어주세요.

      +
    16. +
    +

    RealtimeTTS를 더 좋게 만드는 데 도움을 주셔서 감사합니다!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ko/faq/index.html b/fr/ko/faq/index.html new file mode 100755 index 0000000..d7aec51 --- /dev/null +++ b/fr/ko/faq/index.html @@ -0,0 +1,1856 @@ + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    자주 묻는 질문

    +

    RealtimeTTS에 대한 자주 묻는 질문에 대한 답변은 GitHub의 FAQ 페이지를 참조해 주세요.

    +

    이 페이지는 다음과 같은 다양한 주제를 다룹니다:

    +
      +
    • 다양한 TTS 엔진의 사용
    • +
    • 다국어 텍스트 처리
    • +
    • 성능 최적화
    • +
    • 일반적인 문제 해결
    • +
    +

    자세한 정보는 위의 링크를 방문해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ko/index.html b/fr/ko/index.html new file mode 100755 index 0000000..eb3d00f --- /dev/null +++ b/fr/ko/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    실시간TTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    실시간 애플리케이션을 위한 사용하기 쉽고 저지연 텍스트 음성 변환 라이브러리

    +

    프로젝트 소개

    +

    RealtimeTTS는 실시간 애플리케이션을 위해 설계된 최첨단 텍스트 음성 변환(TTS) 라이브러리입니다. 텍스트 스트림을 빠르게 고품질의 오디오 출력으로 변환하는 능력에서 두드러집니다.

    +

    주요 특징

    +
      +
    • 저지연: 거의 즉각적인 텍스트 음성 변환, LLM 출력과 호환 가능
    • +
    • 고품질 오디오: 명확하고 자연스러운 음성을 생성합니다.
    • +
    • 다양한 TTS 엔진 지원: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS 및 System TTS를 지원합니다.
    • +
    • 다국어 지원
    • +
    • 견고하고 신뢰할 수 있음: 백업 메커니즘을 통해 지속적인 운영을 보장하며, 중단 시 대체 엔진으로 전환하여 일관된 성능과 신뢰성을 보장합니다.
    • +
    +

    설치 지침, 사용 예제 및 API 참조를 보려면 사이드바를 사용하여 문서를 탐색해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ko/installation/index.html b/fr/ko/installation/index.html new file mode 100755 index 0000000..95d5a7f --- /dev/null +++ b/fr/ko/installation/index.html @@ -0,0 +1,2267 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    한국어

    + +
    +

    참고: 이제 pip install realtimetts로 기본 설치하는 것은 권장되지 않으며, 대신 pip install realtimetts[all]를 사용하세요.

    +
    +

    RealtimeTTS 라이브러리는 사용 사례에 맞는 다양한 종속성 설치 옵션을 제공합니다. 여기 당신의 필요에 따라 RealtimeTTS를 설치할 수 있는 다양한 방법이 있습니다:

    +

    전체 설치

    +

    모든 TTS 엔진을 지원하는 RealtimeTTS를 설치하려면:

    +
    pip install -U realtimetts[all]
    +
    +

    맞춤 설치

    +

    RealtimeTTS는 최소한의 라이브러리 설치로 맞춤 설치를 허용합니다. 다음은 이용 가능한 옵션입니다: +- 모두: 모든 엔진이 지원되는 전체 설치. +- 시스템: 시스템별 TTS 기능 포함 (e.g., pyttsx3). +- azure: Azure Cognitive Services Speech 지원을 추가합니다. +- elevenlabs: ElevenLabs API와의 통합을 포함합니다. +- openai: OpenAI 음성 서비스용. +- gtts: 구글 텍스트 음성 변환 지원. +- coqui: Coqui TTS 엔진을 설치합니다. +- 최소: 엔진 없이 기본 요구 사항만 설치 (only needed if you want to develop an own engine)

    +

    로컬 신경망 Coqui TTS 사용을 위해 RealtimeTTS만 설치하고 싶다고 가정해 보세요, 그러면 다음을 사용해야 합니다:

    +
    pip install realtimetts[coqui]
    +
    +

    예를 들어, Azure Cognitive Services Speech, ElevenLabs, OpenAI 지원만으로 RealtimeTTS를 설치하고 싶다면:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    가상 환경 설치

    +

    가상 환경 내에서 전체 설치를 수행하려는 분들은 다음 단계를 따르세요:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA 설치에 대한 자세한 정보.

    +

    엔진 요구 사항

    +

    RealtimeTTS에서 지원하는 다양한 엔진은 고유한 요구 사항을 가지고 있습니다. 선택한 엔진에 따라 이러한 요구 사항을 충족하도록 하십시오.

    +

    시스템엔진

    +

    SystemEngine은 시스템에 내장된 TTS 기능과 함께 즉시 사용할 수 있습니다. 추가 설정이 필요하지 않습니다.

    +

    GTTSEngine

    +

    GTTSEngine은 Google Translate의 텍스트 음성 변환 API를 사용하여 즉시 작동합니다. 추가 설정이 필요 없습니다.

    +

    오픈AI엔진

    +

    OpenAIEngine을 사용하려면: +- 환경 변수 OPENAI_API_KEY 설정 +- ffmpeg 설치 (참고: CUDA 설치 3번 항목)

    +

    AzureEngine

    +

    AzureEngine을 사용하려면 다음이 필요합니다: +- Microsoft Azure Text-to-Speech API 키 (AzureEngine 생성자 매개변수 "speech_key" 또는 환경 변수 AZURE_SPEECH_KEY를 통해 제공됨) +- 마이크로소프트 애저 서비스 지역.

    +

    AzureEngine을 초기화할 때 이러한 자격 증명이 준비되어 있고 올바르게 구성되어 있는지 확인하세요.

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine을 사용하려면 다음이 필요합니다: +- Elevenlabs API 키 (ElevenlabsEngine 생성자 매개변수 "api_key"를 통해 제공되거나 환경 변수 ELEVENLABS_API_KEY에 설정됨) +- 시스템에 mpv가 설치되어 있습니다. (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 mpv 설치하기: + - macOS: + plaintext + brew install mpv

    +
      +
    • 리눅스와 윈도우: 설치 지침은 mpv.io를 방문하세요.
    • +
    +

    코키엔진

    +

    고품질의 로컬 신경 TTS를 음성 클로닝과 함께 제공합니다.

    +

    먼저 신경 TTS 모델을 다운로드합니다. 대부분의 경우 GPU 합성을 사용하면 실시간으로 충분히 빠를 것입니다. 약 4-5GB의 VRAM이 필요합니다.

    +
      +
    • 음성을 복제하려면 소스 음성이 포함된 WAV 파일의 파일 이름을 "voice" 매개변수로 CoquiEngine 생성자에게 제출하십시오.
    • +
    • 음성 복제는 22050 Hz 모노 16비트 WAV 파일에 짧은 (~5-30초) 샘플이 포함된 경우에 가장 잘 작동합니다.
    • +
    +

    대부분의 시스템에서는 실시간으로 충분히 빠르게 실행하기 위해 GPU 지원이 필요하며, 그렇지 않으면 끊김 현상이 발생할 것입니다.

    +

    CUDA 설치

    +

    이 단계들은 더 나은 성능을 요구하고 호환 가능한 NVIDIA GPU를 가진 분들에게 권장됩니다.

    +
    +

    참고: NVIDIA GPU가 CUDA를 지원하는지 확인하려면 공식 CUDA GPU 목록을 방문하세요.

    +
    +

    CUDA를 통해 지원되는 토치를 사용하려면 다음 단계를 따르세요:

    +
    +

    참고: 최신 pytorch 설치는 여기 (확인되지 않음)에서 Toolkit (및 아마도 cuDNN) 설치가 더 이상 필요하지 않을 수 있습니다.

    +
    +
      +
    1. +

      NVIDIA CUDA 툴킷 설치: + 예를 들어, Toolkit 12.X를 설치하려면

      +
        +
      • NVIDIA CUDA 다운로드를 방문하세요.
      • +
      • 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요.
      • +
      • 소프트웨어를 다운로드하고 설치하세요.
      • +
      +

      또는 Toolkit 11.8을 설치하려면, +- NVIDIA CUDA Toolkit 아카이브를 방문하세요. +- 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    2. +
    3. +

      NVIDIA cuDNN 설치:

      +

      예를 들어, CUDA 11.x에 cuDNN 8.7.0을 설치하려면 +- NVIDIA cuDNN 아카이브를 방문하세요. +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x"를 클릭하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    4. +
    5. +

      ffmpeg 설치:

      +

      ffmpeg 웹사이트에서 운영 체제에 맞는 설치 프로그램을 다운로드할 수 있습니다.

      +

      또는 패키지 관리자를 사용하세요:

      +
        +
      • +

        우분투나 데비안에서: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linux에서: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrew를 사용한 MacOS에서 (https://brew.sh/): + ```bash +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolatey를 사용한 Windows에서** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +        ```
    +
    +    - **Scoop을 사용하여 Windows에서** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```
    +        스쿱 설치 ffmpeg
    +
    +
      +
    1. +

      CUDA 지원으로 PyTorch 설치하기:

      +

      CUDA를 사용하여 GPU 지원을 활성화하려면, 특정 CUDA 버전에 따라 다음 지침을 따르세요. CUDA 기능으로 RealtimeSTT의 성능을 향상시키고자 한다면 유용합니다.

      +
        +
      • +

        CUDA 11.8의 경우:

        +

        PyTorch와 Torchaudio를 CUDA 11.8을 지원하도록 업데이트하려면 다음 명령어를 사용하세요:

        +

        ```bash +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      +
    2. +
    +
            텍스트를 번역할 내용: ```
    +
    +    - **CUDA 12.X의 경우:**
    +
    +
    +        PyTorch와 Torchaudio를 CUDA 12.X를 지원하도록 업데이트하려면 다음을 실행하세요:
    +
    +        ```bash
    +pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +
        텍스트를 번역할 내용: ```
    +
    +`2.3.1`을(를) 귀하의 시스템 및 요구 사항에 맞는 PyTorch 버전으로 교체하세요.
    +
    +
      +
    1. 호환성 문제를 해결하기 위한 수정: + 라이브러리 호환성 문제에 직면하면, 이 라이브러리들을 고정된 버전으로 설정해 보세요:
    2. +
    +

    텍스트를 번역할 내용: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/ko/usage/index.html b/fr/ko/usage/index.html new file mode 100755 index 0000000..ca92c6d --- /dev/null +++ b/fr/ko/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    사용 방법

    +

    빠른 시작

    +

    기본적인 사용 예는 다음과 같습니다:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +
    +engine = SystemEngine() # TTS 엔진을 지정
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    텍스트 피드

    +

    개별 문자열을 입력할 수 있습니다:

    +
    stream.feed("안녕하세요, 이것은 문장입니다.")
    +
    +

    실시간 스트리밍용 제너레이터나 문자 이터레이터를 피드하는 것도 가능합니다:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    재생

    +

    비동기 재생:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    동기 재생:

    +
    stream.play()
    +
    +

    라이브러리 테스트

    +

    test 서브디렉토리에는 RealtimeTTS 라이브러리의 기능을 평가하고 이해하기 위한 스크립트가 포함되어 있습니다.

    +

    오래된 OpenAI API (<1.0.0)에 의존하는 테스트가 많기 때문에, 새로운 OpenAI API의 사용 예는 openai_1.0_test.py에서 확인할 수 있습니다.

    +
      +
    • +

      simple_test.py

      +
        +
      • 설명: 라이브러리의 가장 간단한 사용법을 보여주는 "Hello World" 스타일의 데모.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 설명: 라이브러리의 대부분 기능을 포괄하는 종합적인 데모.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 설명: 로컬 Coqui TTS 엔진의 테스트.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하세요.
      • +
      • 설명: 6개의 다른 언어로 실시간 번역.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하십시오.
      • +
      • 설명: 시작 단어로 시작되는 음성 기반의 OpenAI API 인터페이스.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 의존성: pip install openai keyboard realtimestt를 실행하십시오.
      • +
      • 설명: TTS 엔진과 목소리를 선택하여 AI 대화를 시작하세요.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 의존성: pip install openai realtimestt 실행.
      • +
      • 説明: 20行のコードで作成されたシンプルなトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: ラージランゲージモデル(LLM)との統合の簡単なデモ。
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: コールバックを紹介し、実環境での待機時間をチェック可能。
      • +
      +
    • +
    +

    一時停止、再開 & 停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止したストリームを再開:

    +
    stream.resume()
    +
    +

    ストリームをすぐに停止:

    +
    stream.stop()
    +
    +

    必要要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必須: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリはCoquiのGitHubライブラリ「TTS」に依存しており、Pythonのこのバージョン範囲が必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するため

      +
    • +
    • +

      stream2sentence: 入力されるテキストストリームを文単位に分割するため

      +
    • +
    • +

      pyttsx3: システムテキスト読み上げエンジン

      +
    • +
    • +

      pydub: オーディオチャンクの形式変換用

      +
    • +
    • +

      azure-cognitiveservices-speech: Azureテキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabsテキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTS用CoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap研究所が管理するCoqui TTSのフォークに感謝。

    +
      +
    • +

      openai: OpenAIのTTS APIとのインタラクション用

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/usage/index.html b/fr/usage/index.html index 94f3c15..38baaa6 100755 --- a/fr/usage/index.html +++ b/fr/usage/index.html @@ -134,50 +134,49 @@ - - - - - - - - + @@ -436,51 +435,6 @@ - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - - -
  • - - - - - - - - - - - - - - - - - - - - - -
  • - - - - - - - - - + +
  • + + + + + + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • + + + + + + + + + + + + + + + + +
  • + + + + + + + + + + +
  • @@ -967,6 +1470,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + @@ -1075,6 +1704,132 @@ + + + + + + +
  • + + + + + Deutsch + + + + +
  • + + + + + + + + + + +
  • + + + + + Italiano + + + + +
  • + + + + + + + + + + +
  • + + + + + 中文 + + + + +
  • + + + + + + + + + + +
  • + + + + + 日本語 + + + + +
  • + + + + + + + + + + +
  • + + + + + हिंदी + + + + +
  • + + + + + + + + + + +
  • + + + + + 한국어 + + + + +
  • + + + + diff --git a/fr/zh/api/index.html b/fr/zh/api/index.html new file mode 100755 index 0000000..89bfc7d --- /dev/null +++ b/fr/zh/api/index.html @@ -0,0 +1,2791 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +

    配置

    +

    TextToAudioStream 的初始化参数

    +

    初始化 TextToAudioStream 类时,有多种选项可自定义其行为。以下是可用参数:

    +

    engine (BaseEngine)

    +
      +
    • 类型**: 基础引擎
    • +
    • 必需**: 是
    • +
    • 描述***: 负责文本到音频合成的底层引擎。您必须提供一个 BaseEngine 或其子类的实例才能启用音频合成。
    • +
    +

    on_text_stream_start(可调用)

    +
      +
    • 类型**: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 这个可选的回调函数会在文本流开始时触发。可用于任何设置或日志记录。
    • +
    +

    on_text_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当文本流结束时,这个可选的回调函数将被激活。可用于清理任务或日志记录。
    • +
    +

    on_audio_stream_start(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流启动时,会调用这个可选的回调函数。可用于用户界面更新或事件记录。
    • +
    +

    on_audio_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流停止时,会调用这个可选的回调函数。是资源清理或后处理任务的理想选择。
    • +
    +

    on_character(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 处理单个字符时调用此可选回调函数。
    • +
    +

    output_device_index (int)

    +
      +
    • 类型***: 整数
    • +
    • 要求**: 无
    • +
    • 默认**: 无
    • +
    • 描述***: 指定要使用的输出设备索引。无则使用默认设备。
    • +
    +

    tokenizer (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 无
    • +
    • 默认**: nltk
    • +
    • 描述**: 用于分句的标记符(目前支持 “nltk ”和 “stanza”)。
    • +
    +

    language (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 否
    • +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +

    muted (bool)

    +
      +
    • 类型***: 布尔
    • +
    • 要求**: 否
    • +
    • 默认**: 假
    • +
    • 描述***: 全局静音参数。如果为 True,则不会打开 pyAudio 流。禁止通过本地扬声器播放音频(以防要合成到文件或处理音频块),并覆盖播放参数静音设置。
    • +
    +

    level (int)

    +
      +
    • 类型**: 整数
    • +
    • 必须**: 无
    • +
    • 默认**: 日志警告
    • +
    • 描述***: 设置内部日志记录器的日志记录级别。可以是 Python 内置的 logging 模块中的任意整数常量。
    • +
    +

    使用示例:

    +
    engine = YourEngine() # 用你的引擎代替
    +stream = TextToAudioStream(
    +    engine=engine、
    +    on_text_stream_start=my_text_start_func、
    +    on_text_stream_stop=my_text_stop_func、
    +    on_audio_stream_start=my_audio_start_func、
    +    on_audio_stream_stop=my_audio_stop_func、
    +    级别=logging.INFO
    +)
    +
    +

    方法

    +

    playplay_async 方法

    +

    这些方法负责执行文本到音频的合成并播放音频流。不同之处在于,play 是一个阻塞函数,而 play_async 则在单独的线程中运行,允许其他操作继续进行。

    +
    参数:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 默认**: true
    • +
    • 描述***: 当设置为 “true ”时,该方法将优先考虑速度,以更快的速度生成和播放句子片段。这对延迟很重要的应用程序很有用。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 当设置为 “true ”时,快速句子片段处理适用于所有句子,而不仅仅是第一个句子。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 设置为 “true ”时,允许产生多个句子片段,而不是只有一个。
    • +
    +
    buffer_threshold_seconds (浮点数)
    +
      +
    • 默认值**: 0.0
    • +
    • +

      描述**: 指定缓冲阈值的时间(以秒为单位),它会影响音频播放的流畅性和连续性。

      +
    • +
    • +

      工作原理 在合成新句子之前,系统会检查缓冲区中剩余的音频资料是否多于 buffer_threshold_seconds指定的时间。如果是,系统就会从文本生成器中获取另一个句子,假设它能在缓冲区中剩余音频所提供的时间窗口内获取并合成这个新句子。这个过程可以让文本到语音引擎有更多的语境,从而更好地进行合成,增强用户体验。

      +
    • +
    +

    较高的值可确保有更多的预缓冲音频,减少播放过程中出现静音或间断的可能性。如果出现断句或停顿,请考虑增加该值。

    +
    minimum_sentence_length(int)
    +
      +
    • 默认10
    • +
    • 描述**: 设置将字符串视为句子进行合成的最小字符长度。这会影响文本块的处理和播放方式。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 默认值**: 10
    • +
    • 描述**: 第一个句子片段的最小字符数。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 启用后,记录合成为音频的文本块。有助于审计和调试。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 默认**: true
    • +
    • 描述**: 如果为 True,则在处理前重置生成的文本。
    • +
    +
    output_wavfile (str)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 如果设置为 “是”,则将音频保存到指定的 WAV 文件中。
    • +
    +
    on_sentence_synthesized(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成一个句子片段后调用的回调函数。
    • +
    +
    before_sentence_synthesized (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成单个句子片段之前调用的回调函数。
    • +
    +
    on_audio_chunk(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 单个音频片段准备就绪时调用的回调函数。
    • +
    +
    tokenizer (str)
    +
      +
    • 默认**: “nltk”
    • +
    • 描述**: 用于分句的标记符。目前支持 “nltk ”和 “stanza”。
    • +
    +
    tokenize_sentences (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 从输入文本中标记句子的自定义函数。如果对 nltk 和 stanza 不满意,可以提供自己的轻量级标记符。它应以字符串形式接收文本,并以字符串列表形式返回拆分后的句子。
    • +
    +
    language (str)
    +
      +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +
    context_size (int)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 用于建立句子边界检测上下文的字符数。上下文越大,检测句子边界的准确性就越高。
    • +
    +
    context_size_look_overhead (整数)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 检测句子边界时用于前瞻的额外上下文大小。
    • +
    +
    muted (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述***: 如果为 True,则禁止通过本地扬声器播放音频。当您想合成一个文件或处理音频块而不播放它们时,此功能非常有用。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 默认**: “.?!;:,\n...)]}。-”
    • +
    • 描述**: 被视为句子分隔符的字符串。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 默认值**: 15
    • +
    • 描述***: 强制产生第一个句子片段的字数。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/zh/contributing/index.html b/fr/zh/contributing/index.html new file mode 100755 index 0000000..0b8d454 --- /dev/null +++ b/fr/zh/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    向 RealtimeTTS 投稿

    +

    我们欢迎您为 RealtimeTTS 投稿!您可以通过以下方式为 RealtimeTTS 投稿:

    +
      +
    1. +

      报告错误: 如果您发现了错误,请在我们的 GitHub 存储库 上打开一个问题。

      +
    2. +
    3. +

      提出改进建议: 有关于新功能或改进的想法吗?我们很乐意倾听!打开问题,提出改进建议。

      +
    4. +
    5. +

      代码贡献: 想要添加新功能或修复错误?太好了!请按照以下步骤操作:

      +
    6. +
    7. 分叉版本库
    8. +
    9. 为您的功能创建一个新分支
    10. +
    11. 进行更改
    12. +
    13. +

      提交一个拉取请求,清楚地描述您的更改

      +
    14. +
    15. +

      文档: 通过修正错别字、添加示例或澄清易混淆的部分来帮助我们改进文档。

      +
    16. +
    17. +

      添加新引擎: 如果您想添加对新 TTS 引擎的支持,请先打开一个问题来讨论实现方法。

      +
    18. +
    +

    感谢您帮助改进 RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/zh/faq/index.html b/fr/zh/faq/index.html new file mode 100755 index 0000000..27ff3a5 --- /dev/null +++ b/fr/zh/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    常见问题

    +

    有关 RealtimeTTS 常见问题的解答,请参阅我们的 GitHub 上的常见问题页面

    +

    该页面涵盖各种主题,包括

    +
      +
    • 不同 TTS 引擎的使用
    • +
    • 处理多语言文本
    • +
    • 性能优化
    • +
    • 常见问题的故障排除
    • +
    +

    更多详细信息,请访问以上链接。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/zh/index.html b/fr/zh/index.html new file mode 100755 index 0000000..eef063d --- /dev/null +++ b/fr/zh/index.html @@ -0,0 +1,1937 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    易于使用、低延迟、适用于实时应用的文本到语音库

    +

    项目简介

    +

    RealtimeTTS 是专为实时应用设计的最先进的文本转语音(TTS)库。它能将文本流快速转换为高质量的听觉输出,并将延迟降到最低。

    +

    关键功能

    +
      +
    • 低延迟**:文本到语音的转换几乎瞬时完成,与 LLM 输出兼容
    • +
    • 高质量音频**:生成清晰自然的语音
    • +
    • 支持多种 TTS 引擎**:支持 OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS 和 System TTS
    • +
    • 多种语言**
    • +
    • 稳定可靠**:通过后备机制确保持续运行,在出现中断时切换到替代引擎,保证性能和可靠性的一致性
    • +
    +

    有关安装说明、使用示例和 API 参考,请使用侧边栏浏览文档。

    +

    通过DeepL.com(免费版)翻译

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/zh/installation/index.html b/fr/zh/installation/index.html new file mode 100755 index 0000000..2f9f020 --- /dev/null +++ b/fr/zh/installation/index.html @@ -0,0 +1,2274 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +
    +

    注意: 不再推荐使用 pip install realtimetts 进行基本安装,而应使用 pip install realtimetts[all]

    +
    +

    RealtimeTTS 库为您的用例提供了各种依赖项的安装选项。以下是根据需要安装 RealtimeTTS 的不同方法:

    +

    完整安装

    +

    安装支持所有 TTS 引擎的 RealtimeTTS:

    +
    pip install -U realtimetts[all]
    +
    +

    定制安装

    +

    RealtimeTTS 允许使用最少的库安装进行自定义安装。以下是可用选项: +- 全部: 完全安装所有支持的引擎。 +- *系统: 包括特定系统的 TTS 功能(如 pyttsx3)。 +- azure: 添加 Azure 认知服务语音支持。 +- elevenlabs: 包括与 ElevenLabs API 的集成。 +- openai: 用于 OpenAI 语音服务。 +- gtts: 支持谷歌文本到语音。 +- coqui: 安装 Coqui TTS 引擎。 +- minimal: 只安装基本要求,不安装引擎(只有当你想开发自己的引擎时才需要)。

    +

    如果您只想为本地神经元 Coqui TTS 安装 RealtimeTTS,则应使用

    +
    pip install realtimetts[coqui]
    +
    +

    例如,如果您想安装只支持 Azure 认知服务语音、ElevenLabs 和 OpenAI 的 RealtimeTTS:

    +
    pip install realtimetts[azure,elevenlabs,openai].
    +
    +

    虚拟环境安装

    +

    如果想在虚拟环境中进行完整安装,请按照以下步骤操作:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    有关 CUDA 安装 的更多信息。

    +

    引擎要求

    +

    RealtimeTTS 支持的不同引擎有其独特的要求。请根据所选引擎确保满足这些要求。

    +

    系统引擎

    +

    系统引擎 "开箱即用,具有系统内置的 TTS 功能。无需额外设置。

    +

    GTTS 引擎

    +

    GTTSEngine "开箱即用,使用谷歌翻译的文本到语音 API。无需额外设置。

    +

    OpenAIEngine

    +

    要使用 OpenAIEngine: +- 设置环境变量 OPENAI_API_KEY +- 安装 ffmpeg(参见 CUDA 安装 第 3 点)

    +

    AzureEngine

    +

    要使用 “AzureEngine”,你需要 +- Microsoft Azure 文本到语音 API 密钥(通过 AzureEngine 构造函数参数 “speech_key ”或环境变量 AZURE_SPEECH_KEY 提供) +- Microsoft Azure 服务区域。

    +

    在初始化 AzureEngine 时,确保这些凭据可用并配置正确。

    +

    ElevenlabsEngine

    +

    使用 ElevenlabsEngine 时需要 +- Elevenlabs API 密钥(通过 ElevenlabsEngine 构造函数参数 “api_key ”或环境变量 ELEVENLABS_API_KEY 提供) +- 系统中已安装 mpv(用于流式传输 mpeg 音频,Elevenlabs 仅提供 mpeg)。

    +

    🔹 安装 mpv: + - macOS**: + brew install mpv

    +
      +
    • Linux和Windows: 请访问 mpv.io 获取安装说明。
    • +
    +

    CoquiEngine

    +

    通过语音克隆提供高质量的本地神经 TTS。

    +

    首先下载一个神经 TTS 模型。在大多数情况下,使用 GPU 合成的实时速度足够快。需要大约 4-5GB VRAM。

    +
      +
    • 要克隆语音,请将包含源语音的波形文件的文件名作为 “语音 ”参数提交给 CoquiEngine 构造函数
    • +
    • 语音克隆最好使用 22050 Hz 单声道 16 位 WAV 文件,其中包含一个短(约 5-30 秒)样本
    • +
    +

    在大多数系统上,需要 GPU 的支持才能以足够快的速度实时运行,否则会出现卡顿现象。

    +

    CUDA 安装

    +

    这些步骤适用于那些需要更好性能并且拥有兼容的NVIDIA GPU的人。

    +
    +

    注意要检查您的NVIDIA GPU是否支持CUDA,请访问官方CUDA GPU列表

    +
    +

    要使用支持CUDA的torch,请按照以下步骤操作:

    +
    +

    注意较新的 PyTorch 安装 可能(未经验证)不再需要安装 Toolkit(可能也不需要安装 cuDNN)。

    +
    +
      +
    1. +

      安装 NVIDIA CUDA Toolkit: + 例如,要安装 Toolkit 12.X,请

      +
        +
      • 访问 NVIDIA CUDA 下载
      • +
      • 选择你的操作系统、系统架构和操作系统版本。
      • +
      • 下载并安装软件。
      • +
      +

      或者要安装 Toolkit 11.8,请 +- 访问 NVIDIA CUDA Toolkit Archive。 +- 选择您的操作系统、系统架构和操作系统版本。 +- 下载并安装软件。

      +
    2. +
    3. +

      安装 NVIDIA cuDNN

      +

      例如,要为CUDA 11.x安装cuDNN 8.7.0,请 +- 访问NVIDIA cuDNN归档。 +- 点击“下载 cuDNN v8.7.0(2022年11月28日),适用于 CUDA 11.x”。 +- 下载并安装软件。

      +
    4. +
    5. +

      安装 ffmpeg

      +

      您可以从 ffmpeg 网站 下载适用于您操作系统的安装程序。

      +

      或者使用包管理器:

      +
        +
      • +

        在 Ubuntu 或 Debian 上: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        在 Arch Linux 上: + sudo pacman -S ffmpeg

        +
      • +
      • +

        在使用 Homebrew 的 MacOS 上 (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        在Windows上使用Chocolatey (https://chocolatey.org/): + ``` + choco install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **在Windows上使用Scoop** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```plaintext
    +        scoop install ffmpeg
    +        ```
    +
    +4. **安装带有CUDA支持的PyTorch**:
    +
    +    要升级您的PyTorch安装以启用CUDA的GPU支持,请根据您的具体CUDA版本遵循以下说明。 如果您希望通过CUDA功能提升RealtimeSTT的性能,这将非常有用。
    +
    +    - **对于CUDA 11.8:**
    +
    +        要更新 PyTorch 和 Torchaudio 以支持 CUDA 11.8,请使用以下命令:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        文本待翻译:```
    +
    +- **对于CUDA 12.X:**
    +
    +
    +    要更新 PyTorch 和 Torchaudio 以支持 CUDA 12.X,请执行以下操作:
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +文本待翻译:

    +
    将 `2.3.1` 替换为适合您的系统和需求的 PyTorch 版本。
    +
    +
      +
    1. 修复以解决兼容性问题: + 如果你遇到库兼容性问题,尝试将这些库设置为固定版本:
    2. +
    +

    文本翻译:```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/fr/zh/usage/index.html b/fr/zh/usage/index.html new file mode 100755 index 0000000..5d60848 --- /dev/null +++ b/fr/zh/usage/index.html @@ -0,0 +1,2149 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Aller au contenu + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    用法

    +

    快速开始

    +

    这是一个基本的使用示例:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # 替换为你的TTS引擎 +流 = 文本转语音流(engine) +stream.feed("你好,世界!") 你今天怎么样? +stream.play_async()

    +

    供稿文本

    +

    你可以输入单个字符串:

    +
    stream.feed("你好,这是一句话。")
    +
    +

    或者你可以为实时流媒体提供生成器和字符迭代器:

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```聊天完成。创建(
    +        模型="gpt-3.5-turbo",
    +        消息=[{"角色": "用户", "内容": prompt}],
    +        流式=True
    +    ):
    +        如果 (text_chunk := chunk["choices"]上下文:[0]  
    +文本翻译:[0]["德尔塔"].get("content")) 不是 None:
    +            生成文本块
    +
    +文本流 = 写入("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +```python
    +char_iterator = iter("逐字符流式传输。")
    +stream.feed(char_iterator)
    +
    +

    播放

    +

    异步地:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同步:

    +
    stream.play()
    +
    +

    测试库

    +

    测试子目录包含一组脚本,帮助您评估和理解RealtimeTTS库的功能。

    +

    请注意,大多数测试仍然依赖于“旧”的OpenAI API(<1.0.0)。 在 openai_1.0_test.py 中演示了新 OpenAI API 的用法。

    +
      +
    • +

      simple_test.py

      +
        +
      • 描述:一个“你好,世界”风格的演示,展示了该库的最简单用法。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 描述:一个全面的演示,展示了该库提供的大多数功能。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 描述:本地coqui TTS引擎的测试。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述:实时翻译成六种不同的语言。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 唤醒词激活并通过语音界面访问OpenAI API。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依赖项: 运行 pip install openai keyboard realtimestt
      • +
      • 描述: 在开始AI对话之前选择TTS引擎和声音。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 一个20行代码的基本对话机器人。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 如何将库与大型语言模型集成的简单演示 (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 展示回调并让您在实际应用环境中检查延迟时间。
      • +
      +
    • +
    +

    暂停、继续和停止

    +

    暂停音频流:

    +
    stream.pause()
    +
    +

    恢复暂停的直播:

    +
    stream.resume()
    +
    +

    立即停止直播:

    +
    stream.stop()
    +
    +

    需求说明

    +
      +
    • Python 版本
    • +
    • 要求:Python >= 3.9,< 3.13
    • +
    • +

      原因: 该库依赖于来自coqui的GitHub库“TTS”,该库需要在此范围内的Python版本。

      +
    • +
    • +

      PyAudio:用于创建输出音频流

      +
    • +
    • +

      stream2sentence:将输入的文本流拆分成句子

      +
    • +
    • +

      pyttsx3:系统文本转语音引擎

      +
    • +
    • +

      pydub:用于转换音频块格式

      +
    • +
    • +

      azure-cognitiveservices-speech:Azure 语音合成引擎

      +
    • +
    • +

      elevenlabs:Elevenlabs 文字转语音转换引擎

      +
    • +
    • +

      coqui-TTS:Coqui的XTTS文本转语音库,用于高质量本地神经TTS

      +
    • +
    +

    Idiap研究所致敬,感谢他们维护了coqui tts的一个分支

    +
      +
    • +

      openai:与OpenAI的TTS API互动

      +
    • +
    • +

      gtts:谷歌翻译文本转语音转换

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/api/index.html b/hi/api/index.html new file mode 100755 index 0000000..791575e --- /dev/null +++ b/hi/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    हिंदी

    + +

    कॉन्फ़िगरेशन

    +

    TextToAudioStream के लिए प्रारंभिक पैरामीटर

    +

    जब आप TextToAudioStream क्लास का इनिशियलाइज़ेशन करते हैं, तो आपके पास इसके व्यवहार को कस्टमाइज़ करने के लिए विभिन्न विकल्प होते हैं। यहाँ उपलब्ध पैरामीटर हैं:

    +

    engine (BaseEngine)

    +
      +
    • प्रकार: BaseEngine
    • +
    • आवश्यकता: हाँ
    • +
    • विवरण: टेक्स्ट-से-ऑडियो सिंथेसिस के लिए ज़िम्मेदार आधार इंजन। आपको ऑडियो सिंथेसिस को सक्षम करने के लिए BaseEngine या इसके सबक्लास का एक इंस्टेंस प्रदान करना होगा।
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब ट्रिगर होता है जब टेक्स्ट स्ट्रीम शुरू होती है। इसे किसी सेटअप या लॉगिंग के लिए उपयोग करें।
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन टेक्स्ट स्ट्रीम समाप्त होने पर सक्रिय होता है। इसे क्लीनअप कार्यों या लॉगिंग के लिए उपयोग किया जा सकता है।
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब चालू होता है जब ऑडियो स्ट्रीम शुरू होती है। यह UI अपडेट या इवेंट लॉगिंग के लिए सहायक है।
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन ऑडियो स्ट्रीम समाप्त होने पर कॉल किया जाता है। यह संसाधन क्लीनअप या पोस्ट-प्रोसेसिंग कार्यों के लिए आदर्श है।
    • +
    +

    on_character (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब कॉल किया जाता है जब एकल कैरेक्टर प्रोसेस किया जाता है।
    • +
    +

    output_device_index (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: उपयोग करने के लिए आउटपुट डिवाइस इंडेक्स निर्दिष्ट करता है। None डिफ़ॉल्ट डिवाइस का उपयोग करता है।
    • +
    +

    tokenizer (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: nltk
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग किए जाने वाले टोकनाइज़र (वर्तमान में "nltk" और "stanza" समर्थित हैं)।
    • +
    +

    language (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: en
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +

    muted (bool)

    +
      +
    • प्रकार: बूल
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: ग्लोबल म्यूटेड पैरामीटर। अगर True है, तो कोई pyAudio स्ट्रीम नहीं खोली जाएगी। स्थानीय स्पीकरों के माध्यम से ऑडियो प्लेबैक को अक्षम करता है और प्ले पैरामीटर म्यूट सेटिंग को ओवरराइड करता है।
    • +
    +

    level (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: logging.WARNING
    • +
    • विवरण: आंतरिक लॉगर के लिए लॉगिंग स्तर सेट करता है। यह पायथन के बिल्ट-इन logging मॉड्यूल से कोई भी इंटीजर कॉन्स्टेंट हो सकता है।
    • +
    +

    उदाहरण उपयोग:

    +
    engine = YourEngine()  # अपने इंजन के साथ प्रतिस्थापित करें
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    मेथड्स

    +

    play और play_async

    +

    ये मेथड्स टेक्स्ट-से-ऑडियो सिंथेसिस को निष्पादित करने और ऑडियो स्ट्रीम प्ले करने के लिए जिम्मेदार हैं। play एक ब्लॉकिंग फंक्शन है, जबकि play_async एक अलग थ्रेड में चलता है, जिससे अन्य ऑपरेशंस जारी रह सकते हैं।

    +
    पैरामीटर:
    +
    fast_sentence_fragment (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह विधि स्पीड को प्राथमिकता देगी, और वाक्यांशों को तेजी से जनरेट और प्ले करेगी। यह ऐसे अनुप्रयोगों के लिए सहायक है जहाँ विलंबता मायने रखती है।
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो सभी वाक्यों पर फास्ट वाक्यांश प्रोसेसिंग लागू करता है।
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह एकल के बजाय एकाधिक वाक्यांश उत्पन्न करने की अनुमति देता है।
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • डिफ़ॉल्ट: 0.0
    • +
    • +

      विवरण: बफ़रिंग सीमा के लिए समय को सेकंड में निर्दिष्ट करता है, जो ऑडियो प्लेबैक की स्थिरता और निरंतरता को प्रभावित करता है।

      +
    • +
    • +

      कैसे काम करता है: नए वाक्य का सिंथेसिस करने से पहले, सिस्टम यह जांचता है कि क्या बफ़र में निर्दिष्ट समय से अधिक ऑडियो सामग्री बची है। इससे यह सुनिश्चित होता है कि अधिक प्री-बफ़र किए गए ऑडियो से प्लेबैक में मौन या अंतराल कम हो।

      +
    • +
    +
    minimum_sentence_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: एक स्ट्रिंग को सिंथेसाइज़ करने के लिए वाक्य के रूप में मानने के लिए न्यूनतम कैरेक्टर की लंबाई सेट करता है।
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: पहले वाक्यांश के लिए आवश्यक न्यूनतम कैरेक्टर की संख्या सेट करता है।
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: सक्षम होने पर, ऑडियो में सिंथेसाइज़ होते समय टेक्स्ट के अंशों को लॉग करता है।
    • +
    +
    reset_generated_text (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: अगर True है, तो प्रोसेसिंग से पहले जनरेट किए गए टेक्स्ट को रीसेट करता है।
    • +
    +
    output_wavfile (str)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: यदि सेट है, तो ऑडियो को निर्दिष्ट WAV फाइल में सहेजता है।
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने के बाद कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने से पहले कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल ऑडियो टुकड़ा तैयार होने पर कॉल किया जाने वाला कॉलबैक फंक्शन।
    • +
    +
    tokenizer (str)
    +
      +
    • डिफ़ॉल्ट: "nltk"
    • +
    • विवरण: वाक्य विभाजन के लिए टोकनाइज़र। वर्तमान में "nltk" और "stanza" का समर्थन है।
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: टेक्स्ट से वाक्य को टोकनाइज़ करने
    • +
    +

    वाला एक कस्टम फंक्शन। यदि आप nltk और stanza से संतुष्ट नहीं हैं, तो अपना स्वयं का टोकनाइज़र प्रदान कर सकते हैं।

    +
    language (str)
    +
      +
    • डिफ़ॉल्ट: "en"
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +
    context_size (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाने के लिए संदर्भ स्थापित करने के लिए प्रयुक्त कैरेक्टर की संख्या।
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाते समय आगे देखने के लिए अतिरिक्त संदर्भ आकार।
    • +
    +
    muted (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: यदि True है, तो स्थानीय स्पीकर के माध्यम से ऑडियो प्लेबैक को अक्षम करता है।
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • डिफ़ॉल्ट: ".?!;:,\n…)]}。-"
    • +
    • विवरण: उन कैरेक्टर की स्ट्रिंग जो वाक्य सीमाओं के रूप में माने जाते हैं।
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • डिफ़ॉल्ट: 15
    • +
    • विवरण: पहले वाक्यांश को उत्पन्न करने के लिए आवश्यक शब्दों की संख्या।
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ar/api/index.html b/hi/ar/api/index.html new file mode 100755 index 0000000..59850ee --- /dev/null +++ b/hi/ar/api/index.html @@ -0,0 +1,2359 @@ + + + + + + + + + + + + + + + + + + + Api - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Api

    + +

    التكوين

    +

    معلمات التهيئة لـ TextToAudioStream

    +

    عند تهيئة فئة TextToAudioStream، لديك خيارات متعددة لتخصيص سلوكها. إليك المعلمات المتاحة:

    +

    engine (BaseEngine)

    +
      +
    • النوع: BaseEngine
    • +
    • مطلوب: نعم المحرك الأساسي المسؤول عن تحويل النص إلى صوت. يجب عليك تقديم نسخة من BaseEngine أو أحد فروعها لتمكين توليف الصوت.
    • +
    +

    on_text_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق النص. استخدمه لأي إعداد أو تسجيل قد تحتاجه.
    • +
    +

    on_text_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم تفعيل هذه الدالة الراجعة الاختيارية عند انتهاء تدفق النص. يمكنك استخدام هذا لمهام التنظيف أو التسجيل.
    • +
    +

    on_audio_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق الصوت. مفيد لتحديثات واجهة المستخدم أو تسجيل الأحداث.
    • +
    +

    on_audio_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا تُستدعى هذه الدالة الاختيارية عند توقف تدفق الصوت. مثالي لتنظيف الموارد أو مهام المعالجة اللاحقة.
    • +
    +

    on_character (callable)

    +

    السياق: - النوع:
    +النص للترجمة: - النوع: دالة قابلة للاستدعاء +- مطلوب: لا تُستدعى هذه الدالة الاختيارية عند معالجة حرف واحد.

    +

    output_device_index (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا يحدد فهرس جهاز الإخراج الذي سيتم استخدامه. لا أحد يستخدم الجهاز الافتراضي.
    • +
    +

    tokenizer (string)

    +
      +
    • النوع: سلسلة
    • +
    • مطلوب: لا
    • +
    • افتراضي: nltk
    • +
    • الوصف: أداة تقسيم الجمل (currently "nltk" and "stanza" are supported).
    • +
    +

    language (سلسلة نصية)

    +
      +
    • النوع: سلسلة نصية
    • +
    • مطلوب: لا اللغة التي يجب استخدامها لتقسيم الجمل.
    • +
    +

    muted (bool)

    +
      +
    • النوع: Bool
    • +
    • مطلوب: لا
    • +
    • القيمة الافتراضية: False
    • +
    • الوصف: المعلمة العالمية الصامتة. إذا كان صحيحًا، فلن يتم فتح أي تدفق pyAudio. يعطل تشغيل الصوت عبر مكبرات الصوت المحلية (في حال كنت تريد التوليف إلى ملف أو معالجة أجزاء الصوت) ويتجاوز إعدادات كتم الصوت في معلمات التشغيل.
    • +
    +

    level (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا
    • +
    • افتراضي: logging.WARNING
    • +
    • الوصف: يحدد مستوى التسجيل للمدون الداخلي. يمكن أن يكون هذا أي ثابت صحيح من وحدة logging المدمجة في بايثون.
    • +
    +

    النص المراد ترجمته: #### مثال على الاستخدام:

    +
    engine = YourEngine()  # استبدل بمحركك
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    الطرق

    +

    play و play_async

    +

    هذه الطرق مسؤولة عن تنفيذ تحويل النص إلى صوت وتشغيل تدفق الصوت. الفرق هو أن play هي دالة حظر، بينما play_async تعمل في خيط منفصل، مما يسمح للعمليات الأخرى بالاستمرار.

    +

    السياق: ##### المعايير:
    +النص المراد ترجمته: ##### المعايير:

    +
    fast_sentence_fragment (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: عند تعيينه على True، ستعطي الطريقة الأولوية للسرعة، مما يؤدي إلى إنشاء وتشغيل أجزاء الجمل بشكل أسرع. هذا مفيد للتطبيقات التي تكون فيها الكمون مهمًا.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند تعيينه إلى True، يتم تطبيق معالجة أجزاء الجمل السريعة على جميع الجمل، وليس فقط الجملة الأولى.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • افتراضي: خطأ
    • +
    • الوصف: عند تعيينه على True، يسمح بإنتاج أجزاء متعددة من الجمل بدلاً من جزء واحد فقط.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • الافتراضي: 0.0
    • +
    • +

      الوصف: يحدد الوقت بالثواني لعتبة التخزين المؤقت، مما يؤثر على سلاسة واستمرارية تشغيل الصوت.

      +
    • +
    • +

      كيف يعمل: قبل تركيب جملة جديدة، يتحقق النظام مما إذا كان هناك المزيد من المواد الصوتية المتبقية في المخزن المؤقت أكثر من الوقت المحدد بواسطة buffer_threshold_seconds. إذا كان الأمر كذلك، فإنه يسترجع جملة أخرى من مولد النصوص، على افتراض أنه يمكنه جلب وتوليف هذه الجملة الجديدة ضمن الإطار الزمني المتاح من الصوت المتبقي في الذاكرة المؤقتة. تسمح هذه العملية لمحرك تحويل النص إلى كلام بالحصول على مزيد من السياق لتحسين التركيب، مما يعزز تجربة المستخدم.

      +
    • +
    +

    قيمة أعلى تضمن وجود المزيد من الصوت المخزن مسبقًا، مما يقلل من احتمال حدوث صمت أو فجوات أثناء التشغيل. إذا كنت تواجه انقطاعات أو توقفات، فكر في زيادة هذه القيمة.

    +
    minimum_sentence_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: يحدد الحد الأدنى لطول الأحرف لاعتبار سلسلة كنص يجب تصنيعه. هذا يؤثر على كيفية معالجة وتشغيل أجزاء النص.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: الحد الأدنى لعدد الأحرف المطلوبة للجزء الأول من الجملة قبل التوقف.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند التفعيل، يسجل أجزاء النص كما يتم تحويلها إلى صوت. مفيد للتدقيق وإصلاح الأخطاء.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: إذا كان صحيحًا، أعد تعيين النص المُولد قبل المعالجة.
    • +
    +
    output_wavfile (str)
    +
      +
    • الافتراضي: None
    • +
    • الوصف: إذا تم تعيينه، احفظ الصوت في ملف WAV المحدد.
    • +
    +
    on_sentence_synthesized (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة رد نداء تُستدعى بعد أن يتم تركيب جزء جملة واحد.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: دالة رد نداء تُستدعى قبل أن يتم تركيب جزء جملة واحد.
    • +
    +
    on_audio_chunk (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة الاستدعاء التي تُستدعى عندما يكون جزء الصوت جاهزًا.
    • +
    +
    tokenizer (str)
    +
      +
    • الافتراضي: "nltk"
    • +
    • الوصف: المحلل اللغوي المستخدم لتقسيم الجمل. يدعم حاليًا "nltk" و "stanza".
    • +
    +
    tokenize_sentences (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء +السياق: - الوصف:
      +النص للترجمة: - الوصف: دالة مخصصة تقوم بتقسيم الجمل من النص المدخل. يمكنك توفير محلل لغوي خفيف الوزن خاص بك إذا لم تكن راضيًا عن nltk وstanza. يجب أن يأخذ النص كسلسلة ويعيد الجمل المقسمة كقائمة من السلاسل.
    • +
    +
    language (str)
    +
      +
    • الإعداد الافتراضي: "en"
    • +
    • الوصف: اللغة المستخدمة لتقسيم الجمل.
    • +
    +
    context_size (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: عدد الأحرف المستخدمة لتحديد السياق لاكتشاف حدود الجمل. سياق أكبر يحسن دقة اكتشاف حدود الجمل.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: حجم سياق إضافي للنظر للأمام عند اكتشاف حدود الجمل.
    • +
    +
    muted (bool)
    +
      +
    • الإعداد الافتراضي: خطأ
    • +
    • الوصف: إذا كان صحيحًا، يتم تعطيل تشغيل الصوت عبر مكبرات الصوت المحلية. مفيد عندما تريد التوليف إلى ملف أو معالجة مقاطع الصوت دون تشغيلها.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • الإعداد الافتراضي: ".?!;:,\n…)]}。-" سلسلة من الأحرف التي تُعتبر محددات للجمل.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • الافتراضي: 15
    • +
    • الوصف: عدد الكلمات التي يجب بعدها أن يتم تقديم الجزء الأول من الجملة.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ar/contributing/index.html b/hi/ar/contributing/index.html new file mode 100755 index 0000000..cfac258 --- /dev/null +++ b/hi/ar/contributing/index.html @@ -0,0 +1,1853 @@ + + + + + + + + + + + + + + + + + + + المساهمة في RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    المساهمة في RealtimeTTS

    +

    نرحب بالمساهمات في RealtimeTTS! إليك بعض الطرق التي يمكنك المساهمة بها:

    +
      +
    1. +

      الإبلاغ عن الأخطاء: إذا وجدت خطأً، يرجى فتح مشكلة على مستودع GitHub الخاص بنا.

      +
    2. +
    3. +

      اقتراح التحسينات: هل لديك أفكار لميزات جديدة أو تحسينات؟ نود أن نسمعها! افتح قضية لاقتراح تحسينات.

      +
    4. +
    5. +

      مساهمات البرمجة: هل تريد إضافة ميزة جديدة أو إصلاح خطأ؟ رائع! يرجى اتباع هذه الخطوات:

      +
    6. +
    7. قم بعمل Fork للمستودع
    8. +
    9. أنشئ فرعًا جديدًا لميزتك
    10. +
    11. أجرِ التغييرات الخاصة بك
    12. +
    13. +

      قدّم طلب سحب مع وصف واضح للتغييرات التي أجريتها

      +
    14. +
    15. +

      التوثيق: ساعدنا في تحسين توثيقنا من خلال تصحيح الأخطاء المطبعية، وإضافة أمثلة، أو توضيح الأقسام المربكة.

      +
    16. +
    17. +

      إضافة محركات جديدة: إذا كنت ترغب في إضافة دعم لمحرك TTS جديد، يرجى فتح قضية أولاً لمناقشة التنفيذ.

      +
    18. +
    +

    شكراً لمساعدتك في تحسين RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ar/faq/index.html b/hi/ar/faq/index.html new file mode 100755 index 0000000..4a93295 --- /dev/null +++ b/hi/ar/faq/index.html @@ -0,0 +1,1837 @@ + + + + + + + + + + + + + + + + + + + الأسئلة المتكررة - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    الأسئلة المتكررة

    +

    للحصول على إجابات للأسئلة الشائعة حول RealtimeTTS، يرجى الرجوع إلى صفحة الأسئلة الشائعة على GitHub.

    +

    تغطي هذه الصفحة مواضيع متنوعة بما في ذلك:

    +
      +
    • استخدام محركات تحويل النص إلى كلام المختلفة
    • +
    • التعامل مع النصوص متعددة اللغات
    • +
    • تحسين الأداء
    • +
    • استكشاف المشكلات الشائعة وإصلاحها
    • +
    +

    لمزيد من المعلومات التفصيلية، يرجى زيارة الرابط أعلاه.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ar/index.html b/hi/ar/index.html new file mode 100755 index 0000000..c77521d --- /dev/null +++ b/hi/ar/index.html @@ -0,0 +1,1867 @@ + + + + + + + + + + + + + + + + + + + RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    مكتبة تحويل النص إلى كلام سهلة الاستخدام ومنخفضة الكمون للتطبيقات في الوقت الحقيقي

    +

    عن المشروع

    +

    RealtimeTTS هي مكتبة متطورة لتحويل النص إلى كلام (TTS) مصممة للتطبيقات في الوقت الفعلي. تتميز بقدرتها على تحويل تدفقات النصوص بسرعة إلى مخرجات صوتية عالية الجودة مع الحد الأدنى من التأخير.

    +

    الميزات الرئيسية

    +
      +
    • زمن استجابة منخفض: تحويل النص إلى كلام شبه فوري، متوافق مع مخرجات نماذج اللغة الكبيرة
    • +
    • صوت عالي الجودة: يولد كلامًا واضحًا وطبيعيًا
    • +
    • دعم محركات تحويل النص إلى كلام المتعددة: يدعم OpenAI TTS، Elevenlabs، Azure Speech Services، Coqui TTS، gTTS وSystem TTS
    • +
    • متعدد اللغات
    • +
    • قوي وموثوق: يضمن التشغيل المستمر من خلال آلية احتياطية، ويتحول إلى محركات بديلة في حالة حدوث انقطاعات لضمان أداء موحد وموثوق
    • +
    +

    للحصول على تعليمات التثبيت، وأمثلة الاستخدام، ومرجع واجهة برمجة التطبيقات، يرجى التنقل عبر الوثائق باستخدام الشريط الجانبي.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ar/installation/index.html b/hi/ar/installation/index.html new file mode 100755 index 0000000..af576cb --- /dev/null +++ b/hi/ar/installation/index.html @@ -0,0 +1,2094 @@ + + + + + + + + + + + + + + + + + + + Installation - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Installation

    + +
    +

    ملاحظة: التثبيت الأساسي باستخدام pip install realtimetts لم يعد موصى به، استخدم pip install realtimetts[all] بدلاً من ذلك.

    +
    +

    توفر مكتبة RealtimeTTS خيارات تثبيت لمختلف التبعيات لحالتك الاستخدامية. إليك الطرق المختلفة التي يمكنك من خلالها تثبيت RealtimeTTS حسب احتياجاتك:

    +

    التثبيت الكامل

    +

    لتثبيت RealtimeTTS مع دعم لجميع محركات تحويل النص إلى كلام:

    +
    pip install -U realtimetts[all]
    +
    +

    التثبيت المخصص

    +

    يسمح RealtimeTTS بالتثبيت المخصص مع الحد الأدنى من تثبيت المكتبات. إليك الخيارات المتاحة: +- الكل: التثبيت الكامل مع دعم كل المحركات. +- النظام: يشمل قدرات تحويل النص إلى كلام الخاصة بالنظام (e.g., pyttsx3). +- azure: يضيف دعم خدمات Azure Cognitive Services Speech. +- elevenlabs: يتضمن التكامل مع واجهة برمجة تطبيقات ElevenLabs. +- openai: لخدمات الصوت من OpenAI. +- gtts: دعم Google Text-to-Speech. +- coqui: يقوم بتثبيت محرك Coqui TTS. +- minimal: يقوم بتثبيت المتطلبات الأساسية فقط بدون محرك (only needed if you want to develop an own engine)

    +

    قل أنك تريد تثبيت RealtimeTTS للاستخدام المحلي فقط مع Coqui TTS العصبي، فعليك استخدام:

    +
    pip install realtimetts[coqui]
    +
    +

    على سبيل المثال، إذا كنت ترغب في تثبيت RealtimeTTS مع دعم Azure Cognitive Services Speech و ElevenLabs و OpenAI فقط:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    تثبيت البيئة الافتراضية

    +

    بالنسبة لأولئك الذين يرغبون في إجراء تثبيت كامل داخل بيئة افتراضية، اتبعوا هذه الخطوات:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    مزيد من المعلومات حول تثبيت CUDA.

    +

    متطلبات المحرك

    +

    تتطلب المحركات المختلفة المدعومة من RealtimeTTS متطلبات فريدة. تأكد من أنك تلبي هذه المتطلبات بناءً على المحرك الذي تختاره.

    +

    محرك النظام

    +

    يعمل SystemEngine مباشرة مع قدرات تحويل النص إلى كلام المدمجة في نظامك. لا حاجة لأي إعداد إضافي.

    +

    GTTSEngine

    +

    يعمل GTTSEngine بشكل مباشر باستخدام واجهة برمجة التطبيقات لتحويل النص إلى كلام من Google Translate. لا حاجة لأي إعداد إضافي.

    +

    OpenAIEngine

    +

    لاستخدام OpenAIEngine: +- تعيين متغير البيئة OPENAI_API_KEY +- تثبيت ffmpeg (انظر تثبيت CUDA النقطة 3)

    +

    AzureEngine

    +

    لاستخدام AzureEngine، ستحتاج إلى: +- مفتاح واجهة برمجة تطبيقات تحويل النص إلى كلام من Microsoft Azure (المقدم عبر معامل منشئ AzureEngine "speech_key" أو في متغير البيئة AZURE_SPEECH_KEY) +- منطقة خدمة Microsoft Azure.

    +

    تأكد من أن لديك هذه البيانات متاحة ومهيأة بشكل صحيح عند تهيئة AzureEngine.

    +

    محرك Elevenlabs

    +

    بالنسبة لـ ElevenlabsEngine، تحتاج إلى: +- مفتاح واجهة برمجة تطبيقات Elevenlabs (المقدم عبر معلمة منشئ ElevenlabsEngine "api_key" أو في متغير البيئة ELEVENLABS_API_KEY) +- تم تثبيت mpv على نظامك (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 تثبيت mpv: + - macOS: + ``` + brew install mpv

    +
    
    +  - **لينكس وويندوز**: قم بزيارة [mpv.io](https://mpv.io/) للحصول على تعليمات التثبيت.
    +
    +### CoquiEngine
    +
    +يوفر تحويل النص إلى كلام العصبي المحلي عالي الجودة مع استنساخ الصوت.
    +
    +يقوم بتحميل نموذج TTS العصبي أولاً. في معظم الحالات، سيكون سريعًا بما يكفي للتشغيل في الوقت الحقيقي باستخدام تركيب GPU. يحتاج إلى حوالي 4-5 جيجابايت من ذاكرة الوصول العشوائي للرسوميات.
    +
    +- لاستنساخ الصوت، قدم اسم ملف wav يحتوي على الصوت المصدر كمعامل "voice" إلى مُنشئ CoquiEngine
    +- يعمل استنساخ الصوت بشكل أفضل مع ملف WAV أحادي 16 بت بتردد 22050 هرتز يحتوي على عينة قصيرة (~5-30 ثانية)
    +
    +في معظم الأنظمة، ستكون هناك حاجة لدعم وحدة معالجة الرسوميات (GPU) لتشغيلها بسرعة كافية في الوقت الحقيقي، وإلا ستواجه تلعثماً.
    +
    +
    +### تثبيت CUDA
    +
    +تُوصى هذه الخطوات لمن يحتاجون إلى **أداء أفضل** ولديهم وحدة معالجة رسومات NVIDIA متوافقة.
    +
    +> **ملاحظة**: *للتحقق مما إذا كانت بطاقة NVIDIA الرسومية الخاصة بك تدعم CUDA، قم بزيارة [قائمة بطاقات CUDA الرسمية](https://developer.nvidia.com/cuda-gpus).*
    +
    +لاستخدام Torch مع الدعم عبر CUDA، يرجى اتباع الخطوات التالية:
    +
    +> **ملاحظة**: *قد لا تحتاج إصدارات PyTorch الأحدث [إلى](https://stackoverflow.com/a/77069523) (غير مؤكدة) إلى تثبيت Toolkit (وربما cuDNN) بعد الآن.*
    +
    +1. **تثبيت NVIDIA CUDA Toolkit**:
    +    على سبيل المثال، لتثبيت Toolkit 12.X، يرجى
    +    - زيارة [تنزيلات NVIDIA CUDA](https://developer.nvidia.com/cuda-downloads).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار النظام.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +    أو لتثبيت Toolkit 11.8، يرجى
    +    - زيارة [أرشيف NVIDIA CUDA Toolkit](https://developer.nvidia.com/cuda-11-8-0-download-archive).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار نظام التشغيل.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٢. **تثبيت NVIDIA cuDNN**:
    +
    +    على سبيل المثال، لتثبيت cuDNN 8.7.0 لـ CUDA 11.x يرجى
    +    - زيارة [أرشيف NVIDIA cuDNN](https://developer.nvidia.com/rdp/cudnn-archive).
    +    - انقر على "تحميل cuDNN v8.7.0 (28 نوفمبر 2022)، لـ CUDA 11.x".
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٣. **تثبيت ffmpeg**:
    +
    +    يمكنك تنزيل مثبت لنظام التشغيل الخاص بك من [موقع ffmpeg](https://ffmpeg.org/download.html).
    +
    +    أو استخدم مدير حزم:
    +
    +    - **على أوبونتو أو ديبيان**:
    +        ```
    +        sudo apt update && sudo apt install ffmpeg
    +        ```
    +
    +    - **على أرتش لينكس**:
    +        ```
    +        sudo pacman -S ffmpeg
    +        ```
    +
    +    - **على نظام MacOS باستخدام Homebrew** ([https://brew.sh/](https://brew.sh/)):
    +        ```
    +        brew install ffmpeg
    +        ```
    +
    +    - **على نظام ويندوز باستخدام Chocolatey** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **على نظام ويندوز باستخدام سكوب** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    سكووب تثبيت ffmpeg
    +
    +
    
    +٤. **تثبيت PyTorch مع دعم CUDA**:
    +
    +    لترقية تثبيت PyTorch الخاص بك لتمكين دعم GPU باستخدام CUDA، اتبع هذه التعليمات بناءً على إصدار CUDA الخاص بك. هذا مفيد إذا كنت ترغب في تحسين أداء RealtimeSTT بقدرات CUDA.
    +
    +    - **لـ CUDA 11.8:**
    +
    +        لتحديث PyTorch و Torchaudio لدعم CUDA 11.8، استخدم الأوامر التالية:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        النص للترجمة: ```
    +
    +- **لـ CUDA 12.X:**
    +
    +
    +    لتحديث PyTorch و Torchaudio لدعم CUDA 12.X، نفذ ما يلي:
    +
    +    ```
    +    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +

    النص للترجمة:

    +
    استبدل `2.3.1` بالإصدار من PyTorch الذي يتناسب مع نظامك ومتطلباتك.
    +
    +
      +
    1. إصلاح لحل مشاكل التوافق: + إذا واجهت مشاكل في توافق المكتبات، حاول ضبط هذه المكتبات على إصدارات ثابتة:
    2. +
    +

    النص للترجمة: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ar/usage/index.html b/hi/ar/usage/index.html new file mode 100755 index 0000000..5c22bd4 --- /dev/null +++ b/hi/ar/usage/index.html @@ -0,0 +1,2035 @@ + + + + + + + + + + + + + + + + + + + الاستخدام - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    الاستخدام

    +

    البداية السريعة

    +

    إليك مثال بسيط للاستخدام:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    نص التغذية

    +

    يمكنك إدخال سلاسل فردية:

    +
    stream.feed("مرحبًا، هذه جملة.")
    +
    +

    أو يمكنك تزويد المولدات ومكررات الشخصيات للبث المباشر:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    التشغيل

    +

    بشكل غير متزامن:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    بالتزامن:

    +
    stream.play()
    +
    +

    اختبار المكتبة

    +

    تحتوي الدليل الفرعي للاختبار على مجموعة من السكربتات لمساعدتك في تقييم وفهم قدرات مكتبة RealtimeTTS.

    +

    يرجى ملاحظة أن معظم الاختبارات لا تزال تعتمد على واجهة برمجة التطبيقات "القديمة" من OpenAI (<1.0.0). يتم توضيح استخدام واجهة برمجة التطبيقات الجديدة من OpenAI في openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • الوصف: عرض توضيحي بأسلوب "مرحبا بالعالم" لأبسط استخدامات المكتبة.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • الوصف: عرض شامل يوضح معظم الميزات التي توفرها المكتبة.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • الوصف: اختبار لمحرك تحويل النص إلى كلام المحلي coqui.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt.
      • +
      • الوصف: ترجمات فورية إلى ست لغات مختلفة.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt. +السياق: - الوصف:
        +النص للترجمة: - الوصف: تم تفعيل كلمة الاستيقاظ وواجهة المستخدم المعتمدة على الصوت لواجهة برمجة تطبيقات OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • التبعيات: شغل الأمر pip install openai keyboard realtimestt.
      • +
      • الوصف: اختر محرك تحويل النص إلى كلام والصوت قبل بدء المحادثة مع الذكاء الاصطناعي.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • المتطلبات: قم بتشغيل pip install openai realtimestt.
      • +
      • الوصف: روبوت محادثة بسيط في 20 سطر من الشيفرة.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • التبعيات: شغّل pip install openai.
      • +
      • الوصف: عرض بسيط لكيفية دمج المكتبة مع نماذج اللغة الكبيرة (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • التبعيات: شغل pip install openai. +السياق: - الوصف:
        +النص للترجمة: - الوصف: يعرض الاستدعاءات ويتيح لك التحقق من أوقات الكمون في بيئة تطبيقات العالم الحقيقي.
      • +
      +
    • +
    +

    إيقاف مؤقت، استئناف وإيقاف

    +

    أوقف بث الصوت:

    +
    stream.pause()
    +
    +

    استئناف بث متوقف:

    +
    stream.resume()
    +
    +

    أوقف البث فورًا:

    +
    stream.stop()
    +
    +

    متطلبات موضحة

    +
      +
    • إصدار بايثون:
    • +
    • المطلوب: بايثون >= 3.9, < 3.13
    • +
    • +

      السبب: المكتبة تعتمد على مكتبة GitHub "TTS" من coqui، والتي تتطلب إصدارات بايثون في هذا النطاق.

      +
    • +
    • +

      PyAudio: لإنشاء دفق صوتي خارجي

      +
    • +
    • +

      stream2sentence: لتقسيم تدفق النص الوارد إلى جمل

      +
    • +
    • +

      pyttsx3: محرك تحويل النص إلى كلام للنظام

      +
    • +
    • +

      pydub: لتحويل تنسيقات مقاطع الصوت

      +
    • +
    • +

      azure-cognitiveservices-speech: محرك تحويل النص إلى كلام من Azure

      +
    • +
    • +

      elevenlabs: محرك تحويل النص إلى كلام من Elevenlabs

      +
    • +
    • +

      coqui-TTS: مكتبة Coqui XTTS لتحويل النص إلى كلام بجودة عالية باستخدام الشبكات العصبية المحلية

      +
    • +
    +

    تحية إلى معهد أبحاث إيديا على الحفاظ على نسخة مفرعة من coqui tts.

    +
      +
    • +

      openai: للتفاعل مع واجهة برمجة التطبيقات لتحويل النص إلى كلام من OpenAI

      +
    • +
    • +

      gtts: تحويل النص إلى كلام باستخدام Google Translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/contributing/index.html b/hi/contributing/index.html new file mode 100755 index 0000000..e1146dc --- /dev/null +++ b/hi/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS में योगदान करें

    +

    हम RealtimeTTS में आपके योगदान का स्वागत करते हैं! आप इन तरीकों से योगदान कर सकते हैं:

    +
      +
    1. +

      बग रिपोर्ट करना: यदि आपको कोई बग मिलता है, तो कृपया हमारे GitHub रिपॉजिटरी पर एक इश्यू खोलें।

      +
    2. +
    3. +

      सुधारों का सुझाव देना: क्या आपके पास नई सुविधाओं या सुधारों के लिए सुझाव हैं? हमें उन्हें सुनकर खुशी होगी! कृपया सुधारों का सुझाव देने के लिए एक इश्यू खोलें।

      +
    4. +
    5. +

      कोड योगदान: कोई नई सुविधा जोड़ना चाहते हैं या किसी बग को ठीक करना चाहते हैं? शानदार! कृपया इन चरणों का पालन करें:

      +
    6. +
    7. रिपॉजिटरी को फोर्क करें
    8. +
    9. अपने फीचर के लिए एक नई ब्रांच बनाएं
    10. +
    11. अपने बदलाव करें
    12. +
    13. +

      अपने बदलावों का स्पष्ट विवरण देते हुए एक पुल रिक्वेस्ट सबमिट करें

      +
    14. +
    15. +

      दस्तावेज़ीकरण: टाइपो सुधारने, उदाहरण जोड़ने या भ्रमित करने वाले भागों को स्पष्ट करके हमें अपने दस्तावेज़ीकरण में सुधार करने में मदद करें।

      +
    16. +
    17. +

      नए इंजनों को जोड़ना: यदि आप किसी नए TTS इंजन के लिए समर्थन जोड़ना चाहते हैं, तो कृपया पहले एक इश्यू खोलें ताकि हम इसके कार्यान्वयन पर चर्चा कर सकें।

      +
    18. +
    +

    RealtimeTTS को बेहतर बनाने में मदद करने के लिए धन्यवाद!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/de/api/index.html b/hi/de/api/index.html new file mode 100755 index 0000000..db41328 --- /dev/null +++ b/hi/de/api/index.html @@ -0,0 +1,2777 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Konfiguration

    +

    Initialisierungsparameter für TextToAudioStream

    +

    Bei der Initialisierung der TextToAudioStream-Klasse haben Sie verschiedene Möglichkeiten, deren Verhalten anzupassen. Hier sind die verfügbaren Parameter:

    +

    engine (BaseEngine)

    +
      +
    • Typ: BaseEngine
    • +
    • Erforderlich: Ja
    • +
    • Beschreibung: Die zugrunde liegende Engine, die für die Text-zu-Audio-Synthese verantwortlich ist. Sie müssen eine Instanz von BaseEngine oder deren Unterklasse bereitstellen, um die Audio-Synthese zu ermöglichen.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird ausgelöst, wenn der Textstream beginnt. Verwenden Sie sie für beliebige Setup- oder Logging-Aufgaben.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aktiviert, wenn der Textstream endet. Sie können diese für Aufräumarbeiten oder Logging verwenden.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream startet. Nützlich für UI-Aktualisierungen oder Event-Logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream stoppt. Ideal für Ressourcenbereinigung oder Nachbearbeitungsaufgaben.
    • +
    +

    on_character (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn ein einzelnes Zeichen verarbeitet wird.
    • +
    +

    output_device_index (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: None
    • +
    • Beschreibung: Gibt den zu verwendenden Ausgabegeräte-Index an. None verwendet das Standardgerät.
    • +
    +

    tokenizer (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: nltk
    • +
    • Beschreibung: Tokenizer für die Satztrennung (derzeit werden "nltk" und "stanza" unterstützt).
    • +
    +

    language (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: en
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +

    muted (bool)

    +
      +
    • Typ: Bool
    • +
    • Erforderlich: Nein
    • +
    • Standard: False
    • +
    • Beschreibung: Globaler Stummschaltungsparameter. Wenn True, wird kein pyAudio-Stream geöffnet. Deaktiviert die Audiowiedergabe über lokale Lautsprecher.
    • +
    +

    level (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: logging.WARNING
    • +
    • Beschreibung: Legt den Logging-Level für den internen Logger fest.
    • +
    +

    Beispielverwendung:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methoden

    +

    play und play_async

    +

    Diese Methoden sind für die Ausführung der Text-zu-Audio-Synthese und das Abspielen des Audio-Streams verantwortlich. Der Unterschied besteht darin, dass play eine blockierende Funktion ist, während play_async in einem separaten Thread läuft, wodurch andere Operationen fortgesetzt werden können.

    +

    Parameter:

    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn auf True gesetzt, priorisiert die Methode die Geschwindigkeit und generiert und spielt Satzfragmente schneller ab. Dies ist nützlich für Anwendungen, bei denen die Latenz wichtig ist.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, wird die schnelle Satzfragmentverarbeitung auf alle Sätze angewendet, nicht nur auf den ersten.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, ermöglicht es die Ausgabe mehrerer Satzfragmente anstelle von nur einem.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Beschreibung: Gibt die Zeit in Sekunden für den Puffer-Schwellenwert an, der die Gleichmäßigkeit und Kontinuität der Audiowiedergabe beeinflusst.

      +
    • +
    • +

      Funktionsweise: Bevor ein neuer Satz synthetisiert wird, prüft das System, ob mehr Audiomaterial im Puffer verbleibt als die durch buffer_threshold_seconds angegebene Zeit. Wenn ja, ruft es einen weiteren Satz vom Textgenerator ab, unter der Annahme, dass es diesen neuen Satz innerhalb des Zeitfensters, das durch das verbleibende Audio im Puffer bereitgestellt wird, abrufen und synthetisieren kann. Dieser Prozess ermöglicht es der Text-to-Speech-Engine, mehr Kontext für eine bessere Synthese zu haben und verbessert dadurch das Benutzererlebnis.

      +
    • +
    +

    Ein höherer Wert sorgt für mehr vorgepuffertes Audio und reduziert die Wahrscheinlichkeit von Stille oder Lücken während der Wiedergabe. Wenn Sie Unterbrechungen oder Pausen bemerken, erhöhen Sie diesen Wert.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Legt die minimale Zeichenlänge fest, ab der ein String als zu synthetisierender Satz betrachtet wird. Dies beeinflusst, wie Textabschnitte verarbeitet und abgespielt werden.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Die minimale Anzahl von Zeichen, die für das erste Satzfragment erforderlich sind, bevor es ausgegeben wird.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn aktiviert, protokolliert es die Textabschnitte während ihrer Synthese zu Audio. Hilfreich für Überprüfung und Debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn True, wird der generierte Text vor der Verarbeitung zurückgesetzt.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Beschreibung: Wenn gesetzt, wird das Audio in der angegebenen WAV-Datei gespeichert.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, nachdem ein einzelnes Satzfragment synthetisiert wurde.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, bevor ein einzelnes Satzfragment synthetisiert wird.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Callback-Funktion, die aufgerufen wird, wenn ein einzelner Audio-Chunk bereit ist.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Beschreibung: Tokenizer für die Satztrennung. Unterstützt derzeit "nltk" und "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine benutzerdefinierte Funktion, die Sätze aus dem Eingabetext tokenisiert. Sie können Ihren eigenen leichtgewichtigen Tokenizer bereitstellen, wenn Sie mit nltk und stanza unzufrieden sind. Die Funktion sollte Text als String entgegennehmen und getrennte Sätze als Liste von Strings zurückgeben.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Die Anzahl der Zeichen, die verwendet werden, um den Kontext für die Satzerkennung festzulegen. Ein größerer Kontext verbessert die Genauigkeit der Satzerkennung.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Zusätzliche Kontextgröße für den Vorausblick bei der Satzerkennung.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn True, wird die Audiowiedergabe über lokale Lautsprecher deaktiviert. Nützlich, wenn Sie in eine Datei synthetisieren oder Audio-Chunks verarbeiten möchten, ohne sie abzuspielen.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Beschreibung: Eine Zeichenkette von Zeichen, die als Satztrennzeichen betrachtet werden.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Beschreibung: Die Anzahl der Wörter, nach denen das erste Satzfragment erzwungen ausgegeben wird.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/de/contributing/index.html b/hi/de/contributing/index.html new file mode 100755 index 0000000..8bc5960 --- /dev/null +++ b/hi/de/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Beitrag zu RealtimeTTS

    +

    Wir freuen uns über Beiträge zu RealtimeTTS! Hier sind einige Möglichkeiten, wie Sie dazu beitragen können:

    +
      +
    1. +

      Berichterstattung über Fehler: Wenn Sie einen Fehler finden, öffnen Sie bitte ein Problem in unserem [GitHub-Repository] (https://github.com/KoljaB/RealtimeTTS/issues).

      +
    2. +
    3. +

      ** Verbesserungsvorschläge**: Haben Sie Ideen für neue Funktionen oder Verbesserungen? Wir würden sie gerne hören! Öffnen Sie eine Ausgabe, um Verbesserungen vorzuschlagen.

      +
    4. +
    5. +

      Code Beiträge: Möchten Sie eine neue Funktion hinzufügen oder einen Fehler beheben? Super! Bitte folgen Sie diesen Schritten:

      +
    6. +
    7. Forken Sie das Repository
    8. +
    9. Erstellen Sie einen neuen Zweig für Ihre Funktion
    10. +
    11. Nehmen Sie Ihre Änderungen vor
    12. +
    13. +

      Senden Sie eine Pull-Anfrage mit einer klaren Beschreibung Ihrer Änderungen

      +
    14. +
    15. +

      Dokumentation: Helfen Sie uns, unsere Dokumentation zu verbessern, indem Sie Tippfehler reparieren, Beispiele hinzufügen oder verwirrende Abschnitte klären.

      +
    16. +
    17. +

      ** Hinzufügen neuer Motoren**: Wenn Sie Unterstützung für eine neue TTS-Engine hinzufügen möchten, öffnen Sie bitte zuerst eine Ausgabe, um die Implementierung zu besprechen.

      +
    18. +
    +

    Vielen Dank, dass Sie dazu beigetragen haben, RealtimeTTS besser zu machen!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/de/faq/index.html b/hi/de/faq/index.html new file mode 100755 index 0000000..571e67d --- /dev/null +++ b/hi/de/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Häufig gestellte Fragen

    +

    Antworten auf häufig gestellte Fragen zu RealtimeTTS finden Sie auf unserer [FAQ-Seite auf GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Diese Seite behandelt verschiedene Themen, darunter:

    +
      +
    • Verwendung verschiedener TTS-Motoren
    • +
    • Umgang mit mehrsprachigem Text
    • +
    • Leistungsoptimierung
    • +
    • Fehlerbehebung bei häufigen Problemen
    • +
    +

    Für genauere Informationen besuchen Sie bitte den obigen Link.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/de/index.html b/hi/de/index.html new file mode 100755 index 0000000..fed6b6e --- /dev/null +++ b/hi/de/index.html @@ -0,0 +1,1864 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +
      +
    • Einfach zu verwendende Text-to-Speech-Bibliothek mit geringer Latenz für Echtzeitanwendungen*
    • +
    +

    Über das Projekt

    +

    RealtimeTTS ist eine hochmoderne Text-to-Speech-Bibliothek (TTS), die für Echtzeitanwendungen entwickelt wurde. Es zeichnet sich durch seine Fähigkeit aus, Textströme schnell in hochwertige Hörausgaben mit minimaler Latenz umzuwandeln.

    +

    Hauptmerkmale

    +
      +
    • Niedrige Latenz: nahezu sofortige Text-zu-Sprache-Konvertierung, kompatibel mit LLM-Ausgaben
    • +
    • High-Quality Audio: erzeugt klare und natürlich klingende Sprache
    • +
    • Multiple TTS Engine Support: unterstützt OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS und System TTS
    • +
    • Mehrsprachig
    • +
    • Robust und zuverlässig: sorgt für einen kontinuierlichen Betrieb durch einen Rückfallmechanismus und wechselt bei Störungen zu alternativen Motoren, die eine gleichbleibende Leistung und Zuverlässigkeit gewährleisten
    • +
    +

    Für Installationsanweisungen, Nutzungsbeispiele und API-Referenzen navigieren Sie bitte über die Seitenleiste durch die Dokumentation.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/de/installation/index.html b/hi/de/installation/index.html new file mode 100755 index 0000000..c9d87f3 --- /dev/null +++ b/hi/de/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Deutsch

    + +
    +

    Hinweis: Die Basisinstallation mit pip install realtimetts wird nicht mehr empfohlen. Verwenden Sie stattdessen pip install realtimetts[all].

    +
    +

    Die RealtimeTTS-Bibliothek bietet verschiedene Installationsoptionen für Abhängigkeiten je nach Anwendungsfall. Hier sind die verschiedenen Möglichkeiten, RealtimeTTS entsprechend Ihren Anforderungen zu installieren:

    +

    Vollständige Installation

    +

    Um RealtimeTTS mit Unterstützung für alle TTS-Engines zu installieren:

    +
    pip install -U realtimetts[all]
    +
    +

    Benutzerdefinierte Installation

    +

    RealtimeTTS ermöglicht eine benutzerdefinierte Installation mit minimalen Bibliotheksinstallationen. Folgende Optionen stehen zur Verfügung: +- all: Vollständige Installation mit Unterstützung aller Engines. +- system: Enthält systemspezifische TTS-Fähigkeiten (z.B. pyttsx3). +- azure: Fügt Azure Cognitive Services Speech-Unterstützung hinzu. +- elevenlabs: Enthält Integration mit der ElevenLabs API. +- openai: Für OpenAI-Sprachdienste. +- gtts: Google Text-to-Speech-Unterstützung. +- coqui: Installiert die Coqui TTS-Engine. +- minimal: Installiert nur die Basisanforderungen ohne Engine (nur erforderlich, wenn Sie eine eigene Engine entwickeln möchten)

    +

    Wenn Sie RealtimeTTS nur für die lokale neuronale Coqui TTS-Nutzung installieren möchten, verwenden Sie:

    +
    pip install realtimetts[coqui]
    +
    +

    Wenn Sie beispielsweise RealtimeTTS nur mit Azure Cognitive Services Speech, ElevenLabs und OpenAI-Unterstützung installieren möchten:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installation in virtueller Umgebung

    +

    Für diejenigen, die eine vollständige Installation in einer virtuellen Umgebung durchführen möchten, folgen Sie diesen Schritten:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Weitere Informationen zur CUDA-Installation.

    +

    Engine-Anforderungen

    +

    Verschiedene von RealtimeTTS unterstützte Engines haben spezifische Anforderungen. Stellen Sie sicher, dass Sie diese Anforderungen je nach gewählter Engine erfüllen.

    +

    SystemEngine

    +

    Die SystemEngine funktioniert von Haus aus mit den integrierten TTS-Fähigkeiten Ihres Systems. Keine zusätzliche Einrichtung erforderlich.

    +

    GTTSEngine

    +

    Die GTTSEngine funktioniert von Haus aus mit der Google Translate Text-to-Speech API. Keine zusätzliche Einrichtung erforderlich.

    +

    OpenAIEngine

    +

    Zur Verwendung der OpenAIEngine: +- Umgebungsvariable OPENAI_API_KEY setzen +- ffmpeg installieren (siehe CUDA-Installation Punkt 3)

    +

    AzureEngine

    +

    Für die Verwendung der AzureEngine benötigen Sie: +- Microsoft Azure Text-to-Speech API-Schlüssel (bereitgestellt über den AzureEngine-Konstruktorparameter "speech_key" oder in der Umgebungsvariable AZURE_SPEECH_KEY) +- Microsoft Azure Service-Region

    +

    Stellen Sie sicher, dass diese Anmeldedaten verfügbar und korrekt konfiguriert sind, wenn Sie die AzureEngine initialisieren.

    +

    ElevenlabsEngine

    +

    Für die ElevenlabsEngine benötigen Sie: +- Elevenlabs API-Schlüssel (bereitgestellt über den ElevenlabsEngine-Konstruktorparameter "api_key" oder in der Umgebungsvariable ELEVENLABS_API_KEY) +- mpv auf Ihrem System installiert (wesentlich für das Streaming von MPEG-Audio, Elevenlabs liefert nur MPEG)

    +

    🔹 Installation von mpv: + - macOS: + brew install mpv

    +
      +
    • Linux und Windows: Besuchen Sie mpv.io für Installationsanweisungen.
    • +
    +

    CoquiEngine

    +

    Bietet hochwertige, lokale, neuronale TTS mit Stimmklonen.

    +

    Lädt zuerst ein neurales TTS-Modell herunter. In den meisten Fällen ist es mit GPU-Synthese schnell genug für Echtzeit. Benötigt etwa 4-5 GB VRAM.

    +
      +
    • Um eine Stimme zu klonen, übergeben Sie den Dateinamen einer Wave-Datei, die die Quellstimme enthält, als "voice"-Parameter an den CoquiEngine-Konstruktor
    • +
    • Stimmklonen funktioniert am besten mit einer 22050 Hz Mono 16bit WAV-Datei, die eine kurze (~5-30 Sek.) Probe enthält
    • +
    +

    Auf den meisten Systemen wird GPU-Unterstützung benötigt, um schnell genug für Echtzeit zu sein, andernfalls werden Sie Stottern erleben.

    +

    CUDA-Installation

    +

    Diese Schritte werden für diejenigen empfohlen, die bessere Leistung benötigen und eine kompatible NVIDIA GPU haben.

    +
    +

    Hinweis: Um zu überprüfen, ob Ihre NVIDIA GPU CUDA unterstützt, besuchen Sie die offizielle CUDA GPUs-Liste.

    +
    +

    Um torch mit CUDA-Unterstützung zu verwenden, folgen Sie bitte diesen Schritten:

    +
    +

    Hinweis: Neuere PyTorch-Installationen könnten (unbestätigt) keine Toolkit (und möglicherweise cuDNN) Installation mehr benötigen.

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkit installieren: + Um beispielsweise Toolkit 12.X zu installieren:

      +
        +
      • Besuchen Sie NVIDIA CUDA Downloads.
      • +
      • Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version.
      • +
      • Laden Sie die Software herunter und installieren Sie sie.
      • +
      +

      oder um Toolkit 11.8 zu installieren: +- Besuchen Sie NVIDIA CUDA Toolkit Archive. +- Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version. +- Laden Sie die Software herunter und installieren Sie sie.

      +
    2. +
    3. +

      NVIDIA cuDNN installieren:

      +

      Um beispielsweise cuDNN 8.7.0 für CUDA 11.x zu installieren: +- Besuchen Sie NVIDIA cuDNN Archive. +- Klicken Sie auf "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Laden Sie die Software herunter und installieren Sie sie.

      +
    4. +
    5. +

      ffmpeg installieren:

      +

      Sie können einen Installer für Ihr Betriebssystem von der ffmpeg Website herunterladen.

      +

      Oder verwenden Sie einen Paketmanager:

      +
        +
      • +

        Unter Ubuntu oder Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Unter Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Unter MacOS mit Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Unter Windows mit Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Unter Windows mit Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      PyTorch mit CUDA-Unterstützung installieren:

      +

      Um Ihre PyTorch-Installation zu aktualisieren und GPU-Unterstützung mit CUDA zu aktivieren, folgen Sie diesen Anweisungen basierend auf Ihrer spezifischen CUDA-Version. Dies ist nützlich, wenn Sie die Leistung von RealtimeSTT mit CUDA-Fähigkeiten verbessern möchten.

      +
        +
      • +

        Für CUDA 11.8:

        +

        Um PyTorch und Torchaudio für CUDA 11.8-Unterstützung zu aktualisieren, verwenden Sie folgende Befehle:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Für CUDA 12.X:

        +

        Um PyTorch und Torchaudio für CUDA 12.X-Unterstützung zu aktualisieren, führen Sie Folgendes aus:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Ersetzen Sie 2.3.1 durch die Version von PyTorch, die Ihrem System und Ihren Anforderungen entspricht.

      +
    8. +
    9. +

      Behebung von Kompatibilitätsproblemen: + Wenn Sie auf Bibliotheks-Kompatibilitätsprobleme stoßen, versuchen Sie, diese Bibliotheken auf feste Versionen zu setzen:

      +
    10. +
    +

    `

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    `

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/de/usage/index.html b/hi/de/usage/index.html new file mode 100755 index 0000000..c456eb7 --- /dev/null +++ b/hi/de/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Verwendung

    +

    Schnellstart

    +

    Hier ist ein grundlegendes Beispiel:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # ersetzen Sie dies mit Ihrer TTS-Engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Text Einspeisung

    +

    Sie können einzelne Zeichenketten einspeisen:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oder Sie können Generatoren und Zeichen-Iteratoren für Echtzeit-Streaming verwenden:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Wiedergabe

    +

    Asynchron:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchron:

    +
    stream.play()
    +
    +

    Testen der Bibliothek

    +

    Das Test-Unterverzeichnis enthält eine Reihe von Skripten, die Ihnen helfen, die Fähigkeiten der RealtimeTTS-Bibliothek zu bewerten und zu verstehen.

    +

    Beachten Sie, dass die meisten Tests noch auf der "alten" OpenAI API (<1.0.0) basieren. Die Verwendung der neuen OpenAI API wird in openai_1.0_test.py demonstriert.

    +
      +
    • +

      simple_test.py

      +
        +
      • Beschreibung: Eine "Hello World"-ähnliche Demonstration der einfachsten Bibliotheksnutzung.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Beschreibung: Eine umfassende Demonstration der meisten Funktionen der Bibliothek.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Beschreibung: Test der lokalen Coqui TTS-Engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Echtzeitübersetzungen in sechs verschiedene Sprachen.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Durch Aktivierungswort gesteuerte und sprachbasierte Benutzeroberfläche für die OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai keyboard realtimestt aus.
      • +
      • Beschreibung: Wählen Sie TTS-Engine und Stimme vor Beginn der KI-Konversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Ein grundlegender Sprachbot in 20 Codezeilen.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Einfache Demonstration der Integration der Bibliothek mit Large Language Models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Zeigt die Callbacks und lässt Sie die Latenzzeiten in einer realen Anwendungsumgebung überprüfen.
      • +
      +
    • +
    +

    Pause, Fortsetzen & Stoppen

    +

    Audiostream pausieren:

    +
    stream.pause()
    +
    +

    Pausierten Stream fortsetzen:

    +
    stream.resume()
    +
    +

    Stream sofort stoppen:

    +
    stream.stop()
    +
    +

    Erläuterung der Anforderungen

    +
      +
    • Python Version:
    • +
    • Erforderlich: Python >= 3.9, < 3.13
    • +
    • +

      Grund: Die Bibliothek hängt von der GitHub-Bibliothek "TTS" von Coqui ab, die Python-Versionen in diesem Bereich erfordert.

      +
    • +
    • +

      PyAudio: zur Erstellung eines Audio-Ausgabestreams

      +
    • +
    • +

      stream2sentence: zum Aufteilen des eingehenden Textstreams in Sätze

      +
    • +
    • +

      pyttsx3: System Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      pydub: zur Konvertierung von Audio-Chunk-Formaten

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS Text-to-Speech Bibliothek für hochwertige lokale neuronale TTS

      +
    • +
    +

    Dank an das Idiap Research Institute für die Pflege eines Forks von Coqui TTS.

    +
      +
    • +

      openai: zur Interaktion mit der OpenAI TTS API

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech Konvertierung

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/en/api/index.html b/hi/en/api/index.html new file mode 100755 index 0000000..0d7808b --- /dev/null +++ b/hi/en/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    English

    + +

    Configuration

    +

    Initialization Parameters for TextToAudioStream

    +

    When you initialize the TextToAudioStream class, you have various options to customize its behavior. Here are the available parameters:

    +

    engine (BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Required: Yes
    • +
    • Description: The underlying engine responsible for text-to-audio synthesis. You must provide an instance of BaseEngine or its subclass to enable audio synthesis.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is triggered when the text stream begins. Use it for any setup or logging you may need.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is activated when the text stream ends. You can use this for cleanup tasks or logging.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is invoked when the audio stream starts. Useful for UI updates or event logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when the audio stream stops. Ideal for resource cleanup or post-processing tasks.
    • +
    +

    on_character (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when a single character is processed.
    • +
    +

    output_device_index (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: None
    • +
    • Description: Specifies the output device index to use. None uses the default device.
    • +
    +

    tokenizer (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: nltk
    • +
    • Description: Tokenizer to use for sentence splitting (currently "nltk" and "stanza" are supported).
    • +
    +

    language (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: en
    • +
    • Description: Language to use for sentence splitting.
    • +
    +

    muted (bool)

    +
      +
    • Type: Bool
    • +
    • Required: No
    • +
    • Default: False
    • +
    • Description: Global muted parameter. If True, no pyAudio stream will be opened. Disables audio playback via local speakers (in case you want to synthesize to file or process audio chunks) and overrides the play parameters muted setting.
    • +
    +

    level (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: logging.WARNING
    • +
    • Description: Sets the logging level for the internal logger. This can be any integer constant from Python's built-in logging module.
    • +
    +

    Example Usage:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methods

    +

    play and play_async

    +

    These methods are responsible for executing the text-to-audio synthesis and playing the audio stream. The difference is that play is a blocking function, while play_async runs in a separate thread, allowing other operations to proceed.

    +
    Parameters:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Description: When set to True, the method will prioritize speed, generating and playing sentence fragments faster. This is useful for applications where latency matters.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, applies the fast sentence fragment processing to all sentences, not just the first one.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, allows yielding multiple sentence fragments instead of just a single one.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Description: Specifies the time in seconds for the buffering threshold, which impacts the smoothness and continuity of audio playback.

      +
    • +
    • +

      How it Works: Before synthesizing a new sentence, the system checks if there is more audio material left in the buffer than the time specified by buffer_threshold_seconds. If so, it retrieves another sentence from the text generator, assuming that it can fetch and synthesize this new sentence within the time window provided by the remaining audio in the buffer. This process allows the text-to-speech engine to have more context for better synthesis, enhancing the user experience.

      +
    • +
    +

    A higher value ensures that there's more pre-buffered audio, reducing the likelihood of silence or gaps during playback. If you experience breaks or pauses, consider increasing this value.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Description: Sets the minimum character length to consider a string as a sentence to be synthesized. This affects how text chunks are processed and played.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Description: The minimum number of characters required for the first sentence fragment before yielding.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Description: When enabled, logs the text chunks as they are synthesized into audio. Helpful for auditing and debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Description: If True, reset the generated text before processing.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Description: If set, save the audio to the specified WAV file.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called after a single sentence fragment was synthesized.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called before a single sentence fragment gets synthesized.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Description: Callback function that gets called when a single audio chunk is ready.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Description: Tokenizer to use for sentence splitting. Currently supports "nltk" and "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Description: A custom function that tokenizes sentences from the input text. You can provide your own lightweight tokenizer if you are unhappy with nltk and stanza. It should take text as a string and return split sentences as a list of strings.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Description: Language to use for sentence splitting.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Description: The number of characters used to establish context for sentence boundary detection. A larger context improves the accuracy of detecting sentence boundaries.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Description: Additional context size for looking ahead when detecting sentence boundaries.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Description: If True, disables audio playback via local speakers. Useful when you want to synthesize to a file or process audio chunks without playing them.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Description: A string of characters that are considered sentence delimiters.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Description: The number of words after which the first sentence fragment is forced to be yielded.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/en/contributing/index.html b/hi/en/contributing/index.html new file mode 100755 index 0000000..66da271 --- /dev/null +++ b/hi/en/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contributing to RealtimeTTS

    +

    We welcome contributions to RealtimeTTS! Here are some ways you can contribute:

    +
      +
    1. +

      Reporting Bugs: If you find a bug, please open an issue on our GitHub repository.

      +
    2. +
    3. +

      Suggesting Enhancements: Have ideas for new features or improvements? We'd love to hear them! Open an issue to suggest enhancements.

      +
    4. +
    5. +

      Code Contributions: Want to add a new feature or fix a bug? Great! Please follow these steps:

      +
    6. +
    7. Fork the repository
    8. +
    9. Create a new branch for your feature
    10. +
    11. Make your changes
    12. +
    13. +

      Submit a pull request with a clear description of your changes

      +
    14. +
    15. +

      Documentation: Help us improve our documentation by fixing typos, adding examples, or clarifying confusing sections.

      +
    16. +
    17. +

      Adding New Engines: If you want to add support for a new TTS engine, please open an issue first to discuss the implementation.

      +
    18. +
    +

    Thank you for helping make RealtimeTTS better!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/en/faq/index.html b/hi/en/faq/index.html new file mode 100755 index 0000000..8524e0b --- /dev/null +++ b/hi/en/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Frequently Asked Questions

    +

    For answers to frequently asked questions about RealtimeTTS, please refer to our FAQ page on GitHub.

    +

    This page covers various topics including:

    +
      +
    • Usage of different TTS engines
    • +
    • Handling of multilingual text
    • +
    • Performance optimization
    • +
    • Troubleshooting common issues
    • +
    +

    For more detailed information, please visit the link above.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/en/index.html b/hi/en/index.html new file mode 100755 index 0000000..f3760e0 --- /dev/null +++ b/hi/en/index.html @@ -0,0 +1,1934 @@ + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Easy to use, low-latency text-to-speech library for realtime applications

    +

    About the Project

    +

    RealtimeTTS is a state-of-the-art text-to-speech (TTS) library designed for real-time applications. It stands out in its ability to convert text streams fast into high-quality auditory output with minimal latency.

    +

    Key Features

    +
      +
    • Low Latency: almost instantaneous text-to-speech conversion, compatible with LLM outputs
    • +
    • High-Quality Audio: generates clear and natural-sounding speech
    • +
    • Multiple TTS Engine Support: supports OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS and System TTS
    • +
    • Multilingual
    • +
    • Robust and Reliable: ensures continuous operation through a fallback mechanism, switches to alternative engines in case of disruptions guaranteeing consistent performance and reliability
    • +
    +

    For installation instructions, usage examples, and API reference, please navigate through the documentation using the sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/en/installation/index.html b/hi/en/installation/index.html new file mode 100755 index 0000000..49e34fd --- /dev/null +++ b/hi/en/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    English

    + +
    +

    Note: Basic Installation with pip install realtimetts is not recommended anymore, use pip install realtimetts[all] instead.

    +
    +

    The RealtimeTTS library provides installation options for various dependencies for your use case. Here are the different ways you can install RealtimeTTS depending on your needs:

    +

    Full Installation

    +

    To install RealtimeTTS with support for all TTS engines:

    +
    pip install -U realtimetts[all]
    +
    +

    Custom Installation

    +

    RealtimeTTS allows for custom installation with minimal library installations. Here are the options available: +- all: Full installation with every engine supported. +- system: Includes system-specific TTS capabilities (e.g., pyttsx3). +- azure: Adds Azure Cognitive Services Speech support. +- elevenlabs: Includes integration with ElevenLabs API. +- openai: For OpenAI voice services. +- gtts: Google Text-to-Speech support. +- coqui: Installs the Coqui TTS engine. +- minimal: Installs only the base requirements with no engine (only needed if you want to develop an own engine)

    +

    Say you want to install RealtimeTTS only for local neuronal Coqui TTS usage, then you should use:

    +
    pip install realtimetts[coqui]
    +
    +

    For example, if you want to install RealtimeTTS with only Azure Cognitive Services Speech, ElevenLabs, and OpenAI support:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Virtual Environment Installation

    +

    For those who want to perform a full installation within a virtual environment, follow these steps:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    More information about CUDA installation.

    +

    Engine Requirements

    +

    Different engines supported by RealtimeTTS have unique requirements. Ensure you fulfill these requirements based on the engine you choose.

    +

    SystemEngine

    +

    The SystemEngine works out of the box with your system's built-in TTS capabilities. No additional setup is needed.

    +

    GTTSEngine

    +

    The GTTSEngine works out of the box using Google Translate's text-to-speech API. No additional setup is needed.

    +

    OpenAIEngine

    +

    To use the OpenAIEngine: +- set environment variable OPENAI_API_KEY +- install ffmpeg (see CUDA installation point 3)

    +

    AzureEngine

    +

    To use the AzureEngine, you will need: +- Microsoft Azure Text-to-Speech API key (provided via AzureEngine constructor parameter "speech_key" or in the environment variable AZURE_SPEECH_KEY) +- Microsoft Azure service region.

    +

    Make sure you have these credentials available and correctly configured when initializing the AzureEngine.

    +

    ElevenlabsEngine

    +

    For the ElevenlabsEngine, you need: +- Elevenlabs API key (provided via ElevenlabsEngine constructor parameter "api_key" or in the environment variable ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 Installing mpv: + - macOS: + brew install mpv

    +
      +
    • Linux and Windows: Visit mpv.io for installation instructions.
    • +
    +

    CoquiEngine

    +

    Delivers high quality, local, neural TTS with voice-cloning.

    +

    Downloads a neural TTS model first. In most cases it be fast enough for Realtime using GPU synthesis. Needs around 4-5 GB VRAM.

    +
      +
    • to clone a voice submit the filename of a wave file containing the source voice as "voice" parameter to the CoquiEngine constructor
    • +
    • voice cloning works best with a 22050 Hz mono 16bit WAV file containing a short (~5-30 sec) sample
    • +
    +

    On most systems GPU support will be needed to run fast enough for realtime, otherwise you will experience stuttering.

    +

    CUDA installation

    +

    These steps are recommended for those who require better performance and have a compatible NVIDIA GPU.

    +
    +

    Note: to check if your NVIDIA GPU supports CUDA, visit the official CUDA GPUs list.

    +
    +

    To use a torch with support via CUDA please follow these steps:

    +
    +

    Note: newer pytorch installations may (unverified) not need Toolkit (and possibly cuDNN) installation anymore.

    +
    +
      +
    1. +

      Install NVIDIA CUDA Toolkit: + For example, to install Toolkit 12.X, please

      +
        +
      • Visit NVIDIA CUDA Downloads.
      • +
      • Select your operating system, system architecture, and os version.
      • +
      • Download and install the software.
      • +
      +

      or to install Toolkit 11.8, please +- Visit NVIDIA CUDA Toolkit Archive. +- Select your operating system, system architecture, and os version. +- Download and install the software.

      +
    2. +
    3. +

      Install NVIDIA cuDNN:

      +

      For example, to install cuDNN 8.7.0 for CUDA 11.x please +- Visit NVIDIA cuDNN Archive. +- Click on "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Download and install the software.

      +
    4. +
    5. +

      Install ffmpeg:

      +

      You can download an installer for your OS from the ffmpeg Website.

      +

      Or use a package manager:

      +
        +
      • +

        On Ubuntu or Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        On Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        On MacOS using Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        On Windows using Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        On Windows using Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Install PyTorch with CUDA support:

      +

      To upgrade your PyTorch installation to enable GPU support with CUDA, follow these instructions based on your specific CUDA version. This is useful if you wish to enhance the performance of RealtimeSTT with CUDA capabilities.

      +
        +
      • +

        For CUDA 11.8:

        +

        To update PyTorch and Torchaudio to support CUDA 11.8, use the following commands:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        For CUDA 12.X:

        +

        To update PyTorch and Torchaudio to support CUDA 12.X, execute the following:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Replace 2.3.1 with the version of PyTorch that matches your system and requirements.

      +
    8. +
    9. +

      Fix for to resolve compatibility issues: + If you run into library compatibility issues, try setting these libraries to fixed versions:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/en/usage/index.html b/hi/en/usage/index.html new file mode 100755 index 0000000..ae642d6 --- /dev/null +++ b/hi/en/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Usage

    +

    Quick Start

    +

    Here's a basic usage example:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Feed Text

    +

    You can feed individual strings:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Or you can feed generators and character iterators for real-time streaming:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Playback

    +

    Asynchronously:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchronously:

    +
    stream.play()
    +
    +

    Testing the Library

    +

    The test subdirectory contains a set of scripts to help you evaluate and understand the capabilities of the RealtimeTTS library.

    +

    Note that most of the tests still rely on the "old" OpenAI API (<1.0.0). Usage of the new OpenAI API is demonstrated in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description: A "hello world" styled demonstration of the library's simplest usage.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description: A comprehensive demonstration showcasing most of the features provided by the library.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description: Test of local coqui TTS engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Real-time translations into six different languages.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Wake word activated and voice based user interface to the OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencies: Run pip install openai keyboard realtimestt.
      • +
      • Description: Choose TTS engine and voice before starting AI conversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: A basic talkbot in 20 lines of code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Simple demonstration of how to integrate the library with large language models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Showcases the callbacks and lets you check the latency times in a real-world application environment.
      • +
      +
    • +
    +

    Pause, Resume & Stop

    +

    Pause the audio stream:

    +
    stream.pause()
    +
    +

    Resume a paused stream:

    +
    stream.resume()
    +
    +

    Stop the stream immediately:

    +
    stream.stop()
    +
    +

    Requirements Explained

    +
      +
    • Python Version:
    • +
    • Required: Python >= 3.9, < 3.13
    • +
    • +

      Reason: The library depends on the GitHub library "TTS" from coqui, which requires Python versions in this range.

      +
    • +
    • +

      PyAudio: to create an output audio stream

      +
    • +
    • +

      stream2sentence: to split the incoming text stream into sentences

      +
    • +
    • +

      pyttsx3: System text-to-speech conversion engine

      +
    • +
    • +

      pydub: to convert audio chunk formats

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure text-to-speech conversion engine

      +
    • +
    • +

      elevenlabs: Elevenlabs text-to-speech conversion engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS text-to-speech library for high-quality local neural TTS

      +
    • +
    +

    Shoutout to Idiap Research Institute for maintaining a fork of coqui tts.

    +
      +
    • +

      openai: to interact with OpenAI's TTS API

      +
    • +
    • +

      gtts: Google translate text-to-speech conversion

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/es/api/index.html b/hi/es/api/index.html new file mode 100755 index 0000000..8f2ae97 --- /dev/null +++ b/hi/es/api/index.html @@ -0,0 +1,2922 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    TextToAudioStream - Documentación en Español

    +

    Configuración

    +

    Parámetros de Inicialización para TextToAudioStream

    +

    Cuando inicializa la clase TextToAudioStream, tiene varias opciones para personalizar su comportamiento. Aquí están los parámetros disponibles:

    +

    Parámetros Principales

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Requerido: Sí
    • +
    • Descripción: El motor subyacente responsable de la síntesis de texto a audio. Debe proporcionar una instancia de BaseEngine o su subclase para habilitar la síntesis de audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando comienza el flujo de texto. Utilícela para cualquier configuración o registro que pueda necesitar.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando finaliza el flujo de texto. Puede utilizarla para tareas de limpieza o registro.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se invoca cuando comienza el flujo de audio. Útil para actualizaciones de UI o registro de eventos.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se detiene el flujo de audio. Ideal para limpieza de recursos o tareas de post-procesamiento.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se procesa un solo carácter.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: None
    • +
    • Descripción: Especifica el índice del dispositivo de salida a utilizar. None usa el dispositivo predeterminado.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: nltk
    • +
    • Descripción: Tokenizador a utilizar para la división de oraciones (actualmente se admiten "nltk" y "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: en
    • +
    • Descripción: Idioma a utilizar para la división de oraciones.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Requerido: No
    • +
    • Valor predeterminado: False
    • +
    • Descripción: Parámetro global de silencio. Si es True, no se abrirá ningún flujo pyAudio. Deshabilita la reproducción de audio a través de los altavoces locales.
    • +
    +

    level (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: logging.WARNING
    • +
    • Descripción: Establece el nivel de registro para el registrador interno. Puede ser cualquier constante entera del módulo logging incorporado de Python.
    • +
    +

    Ejemplo de Uso

    +
    engine = YourEngine()  # Sustituya con su motor
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Métodos

    +

    play y play_async

    +

    Estos métodos son responsables de ejecutar la síntesis de texto a audio y reproducir el flujo de audio. La diferencia es que play es una función bloqueante, mientras que play_async se ejecuta en un hilo separado, permitiendo que otras operaciones continúen.

    +

    Parámetros de Reproducción

    +

    fast_sentence_fragment (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Cuando se establece en True, el método priorizará la velocidad, generando y reproduciendo fragmentos de oraciones más rápidamente.
    • +
    +

    fast_sentence_fragment_allsentences (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, aplica el procesamiento rápido de fragmentos de oraciones a todas las oraciones.
    • +
    +

    fast_sentence_fragment_allsentences_multiple (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, permite generar múltiples fragmentos de oraciones.
    • +
    +

    buffer_threshold_seconds (float)

    +
      +
    • Valor predeterminado: 0.0
    • +
    • Descripción: Especifica el tiempo en segundos para el umbral de búfer.
    • +
    +

    Cómo funciona: Antes de sintetizar una nueva oración, el sistema verifica si queda más material de audio en el búfer que el tiempo especificado. Un valor más alto asegura que haya más audio pre-almacenado en el búfer.

    +

    minimum_sentence_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: Establece la longitud mínima de caracteres para considerar una cadena como una oración.
    • +
    +

    minimum_first_fragment_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: El número mínimo de caracteres requeridos para el primer fragmento de oración.
    • +
    +

    log_synthesized_text (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando está habilitado, registra los fragmentos de texto sintetizados.
    • +
    +

    reset_generated_text (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Si es True, reinicia el texto generado antes del procesamiento.
    • +
    +

    output_wavfile (str)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Si se establece, guarda el audio en el archivo WAV especificado.
    • +
    +

    Funciones de Callback

    +

    on_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama después de sintetizar un fragmento de oración.
    • +
    +

    before_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama antes de sintetizar un fragmento de oración.
    • +
    +

    on_audio_chunk (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama cuando un fragmento de audio está listo.
    • +
    +

    Configuración de Tokenización

    +

    tokenizer (str)

    +
      +
    • Valor predeterminado: "nltk"
    • +
    • Descripción: Tokenizador para la división de oraciones. Admite "nltk" y "stanza".
    • +
    +

    tokenize_sentences (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Función personalizada para tokenizar oraciones del texto de entrada.
    • +
    +

    language (str)

    +
      +
    • Valor predeterminado: "en"
    • +
    • Descripción: Idioma para la división de oraciones.
    • +
    +

    Parámetros de Contexto

    +

    context_size (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Caracteres utilizados para establecer el contexto de límites de oraciones.
    • +
    +

    context_size_look_overhead (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Tamaño de contexto adicional para mirar hacia adelante.
    • +
    +

    Otros Parámetros

    +

    muted (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Deshabilita la reproducción de audio local si es True.
    • +
    +

    sentence_fragment_delimiters (str)

    +
      +
    • Valor predeterminado: ".?!;:,\n…)]}。-"
    • +
    • Descripción: Caracteres considerados como delimitadores de oraciones.
    • +
    +

    force_first_fragment_after_words (int)

    +
      +
    • Valor predeterminado: 15
    • +
    • Descripción: Número de palabras después de las cuales se fuerza el primer fragmento.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/es/contributing/index.html b/hi/es/contributing/index.html new file mode 100755 index 0000000..e8975f9 --- /dev/null +++ b/hi/es/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuir a RealtimeTTS

    +

    Agradecemos cualquier contribución a RealtimeTTS. Aquí tienes algunas formas de contribuir:

    +
      +
    1. +

      Informar de errores: Si encuentras un error, por favor abre una incidencia en nuestro repositorio GitHub.

      +
    2. +
    3. +

      Sugerir mejoras: ¿Tienes ideas para nuevas funciones o mejoras? Nos encantaría escucharlas. Abre una incidencia para sugerir mejoras.

      +
    4. +
    5. +

      Contribuciones de código: ¿Quieres añadir una nueva función o corregir un error? ¡Perfecto! Sigue estos pasos:

      +
    6. +
    7. Abre el repositorio
    8. +
    9. Crea una nueva rama para tu función
    10. +
    11. Realice los cambios
    12. +
    13. +

      Envía un pull request con una descripción clara de tus cambios

      +
    14. +
    15. +

      Documentación: Ayúdanos a mejorar nuestra documentación corrigiendo erratas, añadiendo ejemplos o aclarando secciones confusas.

      +
    16. +
    17. +

      Añadir nuevos motores: Si quieres añadir soporte para un nuevo motor TTS, por favor abre una incidencia primero para discutir la implementación.

      +
    18. +
    +

    Gracias por ayudarnos a mejorar RealtimeTTS.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/es/faq/index.html b/hi/es/faq/index.html new file mode 100755 index 0000000..66dbf83 --- /dev/null +++ b/hi/es/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Preguntas frecuentes

    +

    Para obtener respuestas a las preguntas más frecuentes sobre RealtimeTTS, consulta nuestra página de preguntas frecuentes en GitHub.

    +

    Esta página cubre varios temas, entre ellos

    +
      +
    • Uso de diferentes motores TTS
    • +
    • Tratamiento de textos multilingües
    • +
    • Optimización del rendimiento
    • +
    • Solución de problemas comunes
    • +
    +

    Para obtener información más detallada, visite el enlace anterior.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/es/index.html b/hi/es/index.html new file mode 100755 index 0000000..b745e86 --- /dev/null +++ b/hi/es/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    *Biblioteca de conversión de texto en voz fácil de usar y de baja latencia para aplicaciones en tiempo real.

    +

    Acerca del proyecto

    +

    RealtimeTTS es una biblioteca de texto a voz (TTS) de última generación diseñada para aplicaciones en tiempo real. Destaca por su capacidad para convertir rápidamente flujos de texto en salida auditiva de alta calidad con una latencia mínima.

    +

    Características principales

    +
      +
    • Baja latencia: conversión de texto a voz casi instantánea, compatible con salidas LLM.
    • +
    • Audio de alta calidad**: genera un habla clara y natural.
    • +
    • Compatible con múltiples motores TTS**: compatible con OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS y System TTS
    • +
    • Multilingüe
    • +
    • Robusto y fiable**: garantiza un funcionamiento continuo gracias a un mecanismo de reserva que cambia a motores alternativos en caso de interrupciones, lo que garantiza un rendimiento y una fiabilidad constantes.
    • +
    +

    Para obtener instrucciones de instalación, ejemplos de uso y referencias de la API, navegue por la documentación utilizando la barra lateral.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/es/installation/index.html b/hi/es/installation/index.html new file mode 100755 index 0000000..c608758 --- /dev/null +++ b/hi/es/installation/index.html @@ -0,0 +1,2243 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Español

    + +
    +

    Nota: Ya no se recomienda la instalación básica con pip install realtimetts, use pip install realtimetts[all] en su lugar.

    +
    +

    La biblioteca RealtimeTTS proporciona opciones de instalación para varias dependencias según su caso de uso. Aquí están las diferentes formas en que puede instalar RealtimeTTS según sus necesidades:

    +

    Instalación Completa

    +

    Para instalar RealtimeTTS con soporte para todos los motores de TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Instalación Personalizada

    +

    RealtimeTTS permite una instalación personalizada con instalaciones mínimas de bibliotecas. Estas son las opciones disponibles: +- all: Instalación completa con todos los motores soportados. +- system: Incluye capacidades de TTS específicas del sistema (por ejemplo, pyttsx3). +- azure: Agrega soporte para Azure Cognitive Services Speech. +- elevenlabs: Incluye integración con la API de ElevenLabs. +- openai: Para servicios de voz de OpenAI. +- gtts: Soporte para Google Text-to-Speech. +- coqui: Instala el motor Coqui TTS. +- minimal: Instala solo los requisitos base sin motor (solo necesario si desea desarrollar un motor propio)

    +

    Por ejemplo, si desea instalar RealtimeTTS solo para uso local de Coqui TTS neuronal, debe usar:

    +
    pip install realtimetts[coqui]
    +
    +

    Si desea instalar RealtimeTTS solo con Azure Cognitive Services Speech, ElevenLabs y soporte de OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Instalación en Entorno Virtual

    +

    Para aquellos que deseen realizar una instalación completa dentro de un entorno virtual, sigan estos pasos:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Más información sobre instalación de CUDA.

    +

    Requisitos de los Motores

    +

    Los diferentes motores soportados por RealtimeTTS tienen requisitos únicos. Asegúrese de cumplir con estos requisitos según el motor que elija.

    +

    SystemEngine

    +

    El SystemEngine funciona de inmediato con las capacidades de TTS incorporadas en su sistema. No se necesita configuración adicional.

    +

    GTTSEngine

    +

    El GTTSEngine funciona de inmediato usando la API de texto a voz de Google Translate. No se necesita configuración adicional.

    +

    OpenAIEngine

    +

    Para usar el OpenAIEngine: +- configure la variable de entorno OPENAI_API_KEY +- instale ffmpeg (ver instalación de CUDA punto 3)

    +

    AzureEngine

    +

    Para usar el AzureEngine, necesitará: +- Clave API de Microsoft Azure Text-to-Speech (proporcionada a través del parámetro "speech_key" del constructor AzureEngine o en la variable de entorno AZURE_SPEECH_KEY) +- Región de servicio de Microsoft Azure.

    +

    Asegúrese de tener estas credenciales disponibles y correctamente configuradas al inicializar el AzureEngine.

    +

    ElevenlabsEngine

    +

    Para el ElevenlabsEngine, necesita: +- Clave API de Elevenlabs (proporcionada a través del parámetro "api_key" del constructor ElevenlabsEngine o en la variable de entorno ELEVENLABS_API_KEY) +- mpv instalado en su sistema (esencial para transmitir audio mpeg, Elevenlabs solo entrega mpeg).

    +

    🔹 Instalación de mpv: + - macOS: + brew install mpv

    +
      +
    • Linux y Windows: Visite mpv.io para instrucciones de instalación.
    • +
    +

    CoquiEngine

    +

    Proporciona TTS neuronal local de alta calidad con clonación de voz.

    +

    Descarga primero un modelo neuronal TTS. En la mayoría de los casos, será lo suficientemente rápido para tiempo real usando síntesis GPU. Necesita alrededor de 4-5 GB de VRAM.

    +
      +
    • para clonar una voz, envíe el nombre del archivo de un archivo wave que contenga la voz fuente como parámetro "voice" al constructor CoquiEngine
    • +
    • la clonación de voz funciona mejor con un archivo WAV mono de 16 bits a 22050 Hz que contenga una muestra corta (~5-30 seg)
    • +
    +

    En la mayoría de los sistemas, se necesitará soporte de GPU para ejecutarse lo suficientemente rápido en tiempo real, de lo contrario experimentará tartamudeo.

    +

    Instalación de CUDA

    +

    Estos pasos son recomendados para aquellos que requieren mejor rendimiento y tienen una GPU NVIDIA compatible.

    +
    +

    Nota: para verificar si su GPU NVIDIA es compatible con CUDA, visite la lista oficial de GPUs CUDA.

    +
    +

    Para usar torch con soporte vía CUDA, siga estos pasos:

    +
    +

    Nota: las instalaciones más nuevas de pytorch pueden (no verificado) no necesitar la instalación de Toolkit (y posiblemente cuDNN).

    +
    +
      +
    1. +

      Instalar NVIDIA CUDA Toolkit: + Por ejemplo, para instalar Toolkit 12.X, por favor

      +
        +
      • Visite NVIDIA CUDA Downloads.
      • +
      • Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo.
      • +
      • Descargue e instale el software.
      • +
      +

      o para instalar Toolkit 11.8, por favor +- Visite NVIDIA CUDA Toolkit Archive. +- Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo. +- Descargue e instale el software.

      +
    2. +
    3. +

      Instalar NVIDIA cuDNN:

      +

      Por ejemplo, para instalar cuDNN 8.7.0 para CUDA 11.x por favor +- Visite NVIDIA cuDNN Archive. +- Haga clic en "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Descargue e instale el software.

      +
    4. +
    5. +

      Instalar ffmpeg:

      +

      Puede descargar un instalador para su sistema operativo desde el sitio web de ffmpeg.

      +

      O usar un gestor de paquetes:

      +
        +
      • +

        En Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        En Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        En MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        En Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        En Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Instalar PyTorch con soporte CUDA:

      +

      Para actualizar su instalación de PyTorch y habilitar el soporte de GPU con CUDA, siga estas instrucciones según su versión específica de CUDA. Esto es útil si desea mejorar el rendimiento de RealtimeSTT con capacidades CUDA.

      +
        +
      • +

        Para CUDA 11.8:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 11.8, use los siguientes comandos:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Para CUDA 12.X:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 12.X, ejecute lo siguiente:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Reemplace 2.3.1 con la versión de PyTorch que coincida con su sistema y requisitos.

      +
    8. +
    9. +

      Solución para resolver problemas de compatibilidad: + Si encuentra problemas de compatibilidad de bibliotecas, intente establecer estas bibliotecas en versiones fijas:

      +

      pip install networkx==2.8.8 +pip install typing_extensions==4.8.0 +pip install fsspec==2023.6.0 +pip install imageio==2.31.6 +pip install networkx==2.8.8 +pip install numpy==1.24.3 +pip install requests==2.31.0

      +
    10. +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/es/usage/index.html b/hi/es/usage/index.html new file mode 100755 index 0000000..22d6b56 --- /dev/null +++ b/hi/es/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Uso

    +

    Inicio Rápido

    +

    Aquí hay un ejemplo básico de uso:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Alimentar Texto

    +

    Puede alimentar cadenas individuales:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    O puede alimentar generadores e iteradores de caracteres para la transmisión en tiempo real:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Reproducción

    +

    De forma asíncrona:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    De forma síncrona:

    +
    stream.play()
    +
    +

    Prueba de la Biblioteca

    +

    El subdirectorio de pruebas contiene un conjunto de scripts para ayudarte a evaluar y comprender las capacidades de la biblioteca RealtimeTTS.

    +

    Ten en cuenta que la mayoría de las pruebas aún dependen de la API "antigua" de OpenAI (<1.0.0). El uso de la nueva API de OpenAI se demuestra en openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descripción: Una demostración tipo "hola mundo" del uso más simple de la biblioteca.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descripción: Una demostración completa que muestra la mayoría de las características proporcionadas por la biblioteca.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descripción: Prueba del motor local coqui TTS.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Traducciones en tiempo real a seis idiomas diferentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Interfaz de usuario activada por palabra clave y basada en voz para la API de OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencias: Ejecutar pip install openai keyboard realtimestt.
      • +
      • Descripción: Elija el motor TTS y la voz antes de iniciar la conversación con IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Un talkbot básico en 20 líneas de código.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Demostración simple de cómo integrar la biblioteca con modelos de lenguaje grande (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Muestra los callbacks y te permite verificar los tiempos de latencia en un entorno de aplicación del mundo real.
      • +
      +
    • +
    +

    Pausar, Reanudar y Detener

    +

    Pausar el flujo de audio:

    +
    stream.pause()
    +
    +

    Reanudar un flujo pausado:

    +
    stream.resume()
    +
    +

    Detener el flujo inmediatamente:

    +
    stream.stop()
    +
    +

    Requisitos Explicados

    +
      +
    • Versión de Python:
    • +
    • Requerido: Python >= 3.9, < 3.13
    • +
    • +

      Razón: La biblioteca depende de la biblioteca GitHub "TTS" de coqui, que requiere versiones de Python en este rango.

      +
    • +
    • +

      PyAudio: para crear un flujo de audio de salida

      +
    • +
    • +

      stream2sentence: para dividir el flujo de texto entrante en oraciones

      +
    • +
    • +

      pyttsx3: Motor de conversión de texto a voz del sistema

      +
    • +
    • +

      pydub: para convertir formatos de fragmentos de audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motor de conversión de texto a voz de Azure

      +
    • +
    • +

      elevenlabs: Motor de conversión de texto a voz de Elevenlabs

      +
    • +
    • +

      coqui-TTS: Biblioteca de texto a voz XTTS de Coqui para TTS neuronal local de alta calidad

      +
    • +
    +

    Agradecimiento especial al Instituto de Investigación Idiap por mantener un fork de coqui tts.

    +
      +
    • +

      openai: para interactuar con la API TTS de OpenAI

      +
    • +
    • +

      gtts: Conversión de texto a voz de Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/faq/index.html b/hi/faq/index.html new file mode 100755 index 0000000..a52ad6a --- /dev/null +++ b/hi/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    अक्सर पूछे जाने वाले प्रश्न

    +

    RealtimeTTS से संबंधित अक्सर पूछे जाने वाले प्रश्नों के उत्तर के लिए, कृपया हमारे GitHub पर FAQ पेज पर जाएँ।

    +

    यह पेज विभिन्न विषयों को कवर करता है, जिनमें शामिल हैं:

    +
      +
    • विभिन्न TTS इंजनों का उपयोग
    • +
    • बहुभाषी टेक्स्ट को संभालना
    • +
    • प्रदर्शन में सुधार
    • +
    • सामान्य समस्याओं का समाधान
    • +
    +

    अधिक विस्तृत जानकारी के लिए, कृपया ऊपर दिए गए लिंक पर जाएँ।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/fr/api/index.html b/hi/fr/api/index.html new file mode 100755 index 0000000..ea23743 --- /dev/null +++ b/hi/fr/api/index.html @@ -0,0 +1,2839 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Français

    + +

    Configuration

    +

    Paramètres d'initialisation pour `TextToAudioStream

    +

    Lorsque vous initialisez la classe TextToAudioStream, vous disposez de diverses options pour personnaliser son comportement. Voici les paramètres disponibles :

    +

    `(BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Obligatoire: Oui
    • +
    • Description : Le moteur sous-jacent responsable de la synthèse texte-audio. Vous devez fournir une instance de ine ou sa sous-classe pour permettre la synthèse audio.
    • +
    +

    _text_stream_start (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est déclenchée lorsque le flux de texte commence. Utilisez-le pour toute configuration ou journalisation dont vous pourriez avoir besoin.
    • +
    +

    _text_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est activée à la fin du flux de texte. Vous pouvez l'utiliser pour des tâches de nettoyage ou de journalisation.
    • +
    +

    _audio_stream_start` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel facultative est invoquée au démarrage du flux audio. Utile pour les mises à jour de l'interface utilisateur ou la journalisation des événements.
    • +
    +

    _audio_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsque le flux audio s'arrête. Idéal pour les tâches de nettoyage des ressources ou de post-traitement.
    • +
    +

    on_character` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsqu'un seul caractère est traité.
    • +
    +

    _device_index (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Aucun
    • +
    • Description : Spécifie l'index du périphérique de sortie à utiliser. Aucun n'utilise le périphérique par défaut.
    • +
    +

    (tokenizer(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: nltk
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases (actuellement « nltk » et « stroza » sont pris en charge).
    • +
    +

    `language(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: fr
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +

    muted(bool)

    +
      +
    • Type: Bool
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Faux
    • +
    • Description : Paramètre global coupé. Si True, aucun flux pyAudio ne sera ouvert. Désactive la lecture audio via des haut-parleurs locaux (au cas où vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio) et remplace le paramètre de mise en sourdine des paramètres de lecture.
    • +
    +

    level (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Défaut:logging.AVERTISSEMENT
    • +
    • Description : Définit le niveau de journalisation pour l'enregistreur interne. Cela peut être n'importe quelle constante entière du module ging intégré de Python.
    • +
    +

    Exemple d'utilisation :

    +

    ``(`python +moteur = YourEngine () # Remplacez-vous par votre moteur +flux = TextToAudioStream( + moteur=engine, + on_text_stream_start=my_text_start_func, + on_text_stream_stop=my_text_stop_func, + on_audio_stream_start=my_audio_start_func, + on_audio_stream_stop=my_audio_stop_func, + niveau=logging.INFO +)

    +

    Méthodes

    +

    play etplay_async`

    +

    Ces méthodes sont responsables de l'exécution de la synthèse texte-audio et de la lecture du flux audio. La différence est que play est une fonction de blocage, tandis que play_async s'exécute dans un thread séparé, permettant à d'autres opérations de se poursuivre.

    +
    Paramètres :
    +
    fast_sentence_fragment (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Lorsqu'elle est définie sur True, la méthode donnera la priorité à la vitesse, générant et jouant plus rapidement des fragments de phrases. Ceci est utile pour les applications où la latence est importante.
    • +
    +
    fast_sentence_fragment_allsentences(bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, applique le traitement rapide des fragments de phrase à toutes les phrases, pas seulement à la première.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, permet de produire plusieurs fragments de phrase au lieu d'un seul.
    • +
    +
    _threshold_seconds (flotteur)
    +
      +
    • Par défaut: 0.0
    • +
    • +

      Description : Spécifie le temps en secondes pour le seuil de mise en mémoire tampon, ce qui a un impact sur la douceur et la continuité de la lecture audio.

      +
    • +
    • +

      Comment ça marche : Avant de synthétiser une nouvelle phrase, le système vérifie s'il reste plus de matériel audio dans le tampon que le temps spécifié par buffer_threshold_seconds. Si tel est le cas, il récupère une autre phrase du générateur de texte, en supposant qu'il peut récupérer et synthétiser cette nouvelle phrase dans la fenêtre temporelle fournie par l'audio restant dans le tampon. Ce processus permet au moteur de synthèse vocale d'avoir plus de contexte pour une meilleure synthèse, améliorant ainsi l'expérience utilisateur.

      +
    • +
    +

    Une valeur plus élevée garantit qu'il y a plus d'audio pré-tamponné, réduisant ainsi le risque de silence ou de lacunes pendant la lecture. Si vous rencontrez des pauses ou des pauses, envisagez d'augmenter cette valeur.

    +
    _sentence_length (int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Définit la longueur minimale des caractères pour considérer une chaîne comme une phrase à synthétiser. Cela affecte la façon dont les morceaux de texte sont traités et lus.
    • +
    +
    _first_fragment_length(int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Le nombre minimum de caractères requis pour le premier fragment de phrase avant de céder.
    • +
    +
    _synthesized_text (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est activé, enregistre les morceaux de texte au fur et à mesure de leur synthèse en audio. Utile pour l'audit et le débogage.
    • +
    +
    #reset_generated_text` (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Si Vrai, réinitialisez le texte généré avant le traitement.
    • +
    +
    _wavfile (str)
    +
      +
    • Par défaut: None
    • +
    • Description : Si défini, enregistrez l'audio dans le fichier WAV spécifié.
    • +
    +
    `_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel appelée après un seul fragment de phrase a été synthétisée.
    • +
    +
    before`_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel qui est appelée avant qu'un seul fragment de phrase ne soit synthétisé.
    • +
    +
    _audio_chunk (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Fonction de rappel qui est appelée lorsqu'un seul morceau audio est prêt.
    • +
    +
    ```(str)
    +
      +
    • Par défaut:"nltk"
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases. Prend actuellement en charge « nltk » et « stroza ».
    • +
    +
    _sentences (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction personnalisée qui tokenise les phrases du texte saisi. Vous pouvez fournir votre propre tokenizer léger si vous n'êtes pas satisfait de nltk et stanza. Il doit prendre du texte comme chaîne et renvoyer des phrases divisées comme liste de chaînes.
    • +
    +
    angu(str)
    +
      +
    • Par défaut:"en"
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +
    _size(int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Le nombre de caractères utilisés pour établir le contexte pour la détection des limites de phrase. Un contexte plus large améliore la précision de la détection des limites des phrases.
    • +
    +
    _size_look_overhead (int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Taille de contexte supplémentaire pour regarder vers l'avenir lors de la détection des limites des phrases.
    • +
    +
    mute (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Si vrai, désactive la lecture audio via des haut-parleurs locaux. Utile lorsque vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio sans les lire.
    • +
    +
    ence_fragment_delimiters (str)
    +
      +
    • Par défaut:"?!;::\n...)]}-
    • +
    • Description : Une chaîne de caractères qui sont considérés comme des délimiteurs de phrases.
    • +
    +
    _first_fragment_after_words (int)
    +
      +
    • Par défaut: 15
    • +
    • Description : Le nombre de mots après lesquels le fragment de la première phrase est forcé d'être donné.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/fr/contributing/index.html b/hi/fr/contributing/index.html new file mode 100755 index 0000000..a937025 --- /dev/null +++ b/hi/fr/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuer à RealtimeTTS

    +

    Nous accueillons les contributions à RealtimeTTS ! Voici quelques façons dont vous pouvez contribuer :

    +
      +
    1. +

      Reporting Bugs : Si vous trouvez un bug, veuillez ouvrir un problème sur notre référentiel GitHub.

      +
    2. +
    3. +

      ** Suggestion d'améliorations** : Vous avez des idées de nouvelles fonctionnalités ou d'améliorations ? Nous serions ravis de les entendre ! Ouvrez un numéro pour suggérer des améliorations.

      +
    4. +
    5. +

      Code Contributions : Vous voulez ajouter une nouvelle fonctionnalité ou corriger un bug ? Super ! Veuillez suivre ces étapes :

      +
    6. +
    7. Fourcher le dépôt
    8. +
    9. Créez une nouvelle branche pour votre fonctionnalité
    10. +
    11. Faites vos changements
    12. +
    13. +

      Soumettez une demande pull avec une description claire de vos modifications

      +
    14. +
    15. +

      Documentation : Aidez-nous à améliorer notre documentation en corrigeant les fautes de frappe, en ajoutant des exemples ou en clarifiant les sections déroutantes.

      +
    16. +
    17. +

      Ajout de nouveaux moteurs : Si vous souhaitez ajouter la prise en charge d'un nouveau moteur TTS, veuillez d'abord ouvrir un numéro pour discuter de l'implémentation.

      +
    18. +
    +

    Merci d'avoir contribué à rendre RealtimeTTS meilleur !

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/fr/faq/index.html b/hi/fr/faq/index.html new file mode 100755 index 0000000..8e965aa --- /dev/null +++ b/hi/fr/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Foire aux questions

    +

    Pour les réponses aux questions fréquemment posées sur RealtimeTTS, veuillez vous référer à notre page FAQ sur GitHub.

    +

    Cette page couvre divers sujets dont

    +
      +
    • Utilisation de différents moteurs TTS
    • +
    • Manipulation de textes multilingues
    • +
    • Optimisation des performances
    • +
    • Dépannage des problèmes courants
    • +
    +

    Pour des informations plus détaillées, veuillez consulter le lien ci-dessus.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/fr/index.html b/hi/fr/index.html new file mode 100755 index 0000000..ad605fe --- /dev/null +++ b/hi/fr/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Bibliothèque de synthèse vocale à faible latence et facile à utiliser pour les applications en temps réel

    +

    À propos du projet

    +

    RealtimeTTS est une bibliothèque de synthèse vocale (TTS) de pointe conçue pour les applications en temps réel. Elle se distingue par sa capacité à convertir des flux de texte en sortie auditive de haute qualité avec une latence minimale.

    +

    Caractéristiques clés

    +
      +
    • Faible latence : conversion text-to-speech quasi-instantanée, compatible avec les sorties LLM
    • +
    • Audio de haute qualité : génère un discours clair et naturel
    • +
    • Support de plusieurs moteurs TTS : prend en charge OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS et System TTS
    • +
    • Multilingue
    • +
    • Robuste et fiable : garantit une opération continue grâce à un mécanisme de fallback, bascule vers des moteurs alternatifs en cas de perturbations, garantissant une performance et une fiabilité cohérentes
    • +
    +

    Pour les instructions d'installation, les exemples d'utilisation et la référence de l'API, veuillez naviguer à travers la documentation à l'aide du sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/fr/installation/index.html b/hi/fr/installation/index.html new file mode 100755 index 0000000..f233f94 --- /dev/null +++ b/hi/fr/installation/index.html @@ -0,0 +1,2270 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Français

    + +
    +

    Remarque: Installation de base avec pip install realtimettss n'est plus recommandé, utilisez pip install realtimetts[all] à la place.

    +
    +

    La bibliothèque RealtimeTTS offre des options d'installation pour diverses dépendances pour votre cas d'utilisation. Voici les différentes façons dont vous pouvez installer RealtimeTTS en fonction de vos besoins :

    +

    Installation complète

    +

    Pour installer RealtimeTTS avec prise en charge de tous les moteurs TTS :

    +

    pip install -U realtimetts [tous]

    +

    Installation personnalisée

    +

    RealtimeTTS permet une installation personnalisée avec un minimum d'installations de bibliothèque. Voici les options disponibles : +- all : Installation complète avec chaque moteur pris en charge. +- ** système : Inclut les capacités TTS spécifiques au système (par exemple, pyttsx3). +- azure : ajoute le support vocal Azure Cognitive Services. +- elevenlabs : Comprend l'intégration avec l'API ElevenLabs. +- openai : Pour les services vocaux OpenAI. +- gtts : Prise en charge de Google Text-to-Speech. +- coqui : Installe le moteur Coqui TTS. +- minimal** : installe uniquement les exigences de base sans moteur (nécessaire uniquement si vous souhaitez développer votre propre moteur)

    +

    Supposons que vous souhaitiez installer RealtimeTTS uniquement pour l'utilisation neuronale locale de Coqui TTS, vous devez alors utiliser :

    +

    pip installez realtimetts [coqui]

    +

    Par exemple, si vous souhaitez installer RealtimeTTS avec uniquement Azure Cognitive Services Speech, ElevenLabs et la prise en charge d'OpenAI :

    +

    pip installez realtimetts[azure,elevenlabs,openai]

    +

    Installation de l'environnement virtuel

    +

    Pour ceux qui souhaitent effectuer une installation complète dans un environnement virtuel, procédez comme suit

    +

    python - m venv env_realtimetts +env_realtimetts\Scripts\activate.bat +python.exe - m pip install - upgrade pip +pip install -U realtimetts [tous]

    +

    Plus d'informations sur installation CUDA.

    +

    Exigences du moteur

    +

    Différents moteurs pris en charge par RealtimeTTS ont des exigences uniques. Assurez-vous de remplir ces exigences en fonction du moteur que vous choisissez.

    +

    Moteur système

    +

    Le `SystemEngine fonctionne dès le départ avec les capacités TTS intégrées de votre système. Aucune configuration supplémentaire n'est nécessaire.

    +

    GTTSEngine

    +

    Le GTTSEngine fonctionne dès le départ à l'aide de l'API de synthèse vocale de Google Translate. Aucune configuration supplémentaire n'est nécessaire.

    +

    OpenAIEngine

    +

    Pour utiliser le ``(OpenAIE): +- définir la variable d'environnement OPENAI_API_KEY +- installer ffmpeg (voir installation CUDA point 3)

    +

    AzureEngine

    +

    Pour utiliser le ine, vous aurez besoin de : +- Clé API Microsoft Azure Text-to-Speech (fournie via le paramètre constructeur AzureEngine « speech_key » ou dans la variable d'environnement AZURE_SPEECH_KEY) +- Région de service Microsoft Azure.

    +

    Assurez-vous d'avoir ces informations d'identification disponibles et correctement configurées lors de l'initialisation du AzureEngine.

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    🔹 Installation v: + - macOS: + infuser installer mpv

    +
      +
    • Linux et Windows : Visitez mpv.io pour les instructions d'installation.
    • +
    +

    CoquiEngine

    +

    Offre un TTS neuronal local de haute qualité avec clonage vocal.

    +

    Télécharge d'abord un modèle TTS neuronal. Dans la plupart des cas, il est suffisamment rapide pour le temps réel utilisant la synthèse GPU. Nécessite environ 4 à 5 Go de VRAM.

    +
      +
    • pour cloner une voix, soumettez le nom de fichier d'un fichier d'onde contenant la voix source comme paramètre « voix » au constructeur CoquiEngine
    • +
    • le clonage vocal fonctionne mieux avec un fichier WAV mono 16 bits de 22 050 Hz contenant un échantillon court (~5 à 30 secondes)
    • +
    +

    Sur la plupart des systèmes, la prise en charge du GPU sera nécessaire pour fonctionner suffisamment rapidement en temps réel, sinon vous ferez l'expérience du bégaiement.

    +

    Installation CUDA

    +

    Ces étapes sont recommandées pour ceux qui ont besoin de ** meilleures performances ** et disposent d'un GPU NVIDIA compatible.

    +
    +

    Remarque : pour vérifier si votre GPU NVIDIA prend en charge CUDA, visitez la liste officielle des GPU CUDA.

    +
    +

    Pour utiliser une torche avec support via CUDA, veuillez suivre ces étapes :

    +
    +

    Remarque : les installations de pythorque plus récentes peuvent (non vérifié) n'ont plus besoin d'installation de Toolkit (et éventuellement de cuDNN).

    +
    +
      +
    1. +

      Installer NVIDIA CUDA Toolkit: + Par exemple, pour installer Toolkit 12.X, s'il te plaît

      +
        +
      • Visitez NVIDIA CUDA Téléchargements.
      • +
      • Sélectionnez votre système d'exploitation, votre architecture système et votre version os.
      • +
      • Téléchargez et installez le logiciel.
      • +
      +

      ou pour installer Toolkit 11.8, s'il vous plaît +- Visitez Archive de la boîte à outils CUDA NVIDIA. +- Sélectionnez votre système d'exploitation, votre architecture système et votre version os. +- Téléchargez et installez le logiciel.

      +
    2. +
    3. +

      Installer NVIDIA cuDNN:

      +

      Par exemple, pour installer cuDNN 8.7.0 pour CUDA 11. x s'il vous plaît +- Visitez NVIDIA cuDNN Archive. +- Cliquez sur « Télécharger cuDNN v8.7.0 (28 novembre 2022), pour CUDA 11.x ». +- Téléchargez et installez le logiciel.

      +
    4. +
    5. +

      Installer ffmpeg:

      +

      Vous pouvez télécharger un programme d'installation pour votre système d'exploitation à partir du site Web deffmpeg.

      +

      Ou utilisez un gestionnaire de packages :

      +
        +
      • +

        Sur Ubuntu ou Debian: + sudo apt update & & sudo apt install ffmpeg

        +
      • +
      • +

        Sur Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Sur MacOS utilisant Homebrew (https://brew.sh/): + infuser installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Chocolatey (https://chocolatey.org/): + choco installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Scoop (https://scoop.sh/): + scoop installer ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installez PyTorch avec le support CUDA :

      +

      Pour mettre à niveau votre installation PyTorch afin d'activer le support GPU avec CUDA, suivez ces instructions en fonction de votre version CUDA spécifique. Ceci est utile si vous souhaitez améliorer les performances de RealtimeSTT avec les capacités CUDA.

      +
        +
      • +

        Pour CUDA 11.8:

        +

        Pour mettre à jour PyTorch et Torchaudio afin de prendre en charge CUDA 11.8, utilisez les commandes suivantes :

        +

        pip installe torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Pour CUDA 12.X:

        +

        Pour mettre à jour PyTorch et Torchaudio pour prendre en charge CUDA 12.X, exécutez ce qui suit :

        +

        pip installe torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Remplacer ` of PyTorch that matching your system and requirements.

      +
    8. +
    9. +

      ** Correction pour résoudre les problèmes de compatibilité** : + Si vous rencontrez des problèmes de compatibilité de bibliothèque, essayez de définir ces bibliothèques sur des versions fixes :

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/fr/usage/index.html b/hi/fr/usage/index.html new file mode 100755 index 0000000..6dea647 --- /dev/null +++ b/hi/fr/usage/index.html @@ -0,0 +1,2146 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Utilisation

    +

    Démarrage rapide

    +

    Voici un exemple d'utilisation de base :

    +

    ```(python +depuis RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine

    +

    moteur = SystemEngine () # remplacer par votre moteur TTS +flux = TextToAudioStream(moteur) +stream.feed("Bonjour le monde! Comment ça va aujourd'hui ?") +stream.play_async() +``

    +

    Flux Texte

    +

    Vous pouvez alimenter des chaînes individuelles :

    +

    ``(`python +stream.feed(« Bonjour, c'est une phrase. »)

    +

    Ou vous pouvez alimenter des générateurs et des itérateurs de caractères pour le streaming en temps réel :

    +

    ```(python +def write (prompt : str) : + pour chunk en openai.ChatCompletion.create( + modèle="gpt-3.5-turbo", + messages=[{"role": "utilisateur", "contenu" : prompt}], + stream=True + ): + si (text_chunk := chunk[« choix »][0][« delta »].get(« contenu »)) n'est pas Aucun : + produire du texte_chunk

    +

    text_stream = write (« Un discours relaxant en trois phrases »)

    +

    stream.feed(text_stream) +``

    +

    ``(`python +char_iterator = iter (« Diffusion de ce personnage par personnage ») +stream.feed (char_iterator)

    +

    Layback

    +

    Asynchrone:

    +

    ``(`python +stream.play_async() +pendant que stream.is_playing(): + temps.sommeil(0,1)

    +

    Synchronisé:

    +

    ``(`python +stream.play()

    +

    Tester la bibliothèque

    +

    Le sous-répertoire de test contient un ensemble de scripts pour vous aider à évaluer et comprendre les capacités de la bibliothèque RealtimeTTS.

    +

    Notez que la plupart des tests reposent toujours sur l'« ancienne » API OpenAI (<1.0.0). L'utilisation de la nouvelle API OpenAI est démontrée dans openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description : Une démonstration de style « hello world » de l'usage le plus simple de la bibliothèque.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description : Une démonstration complète présentant la plupart des fonctionnalités fournies par la bibliothèque.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description : Test du moteur local coqui TTS.
      • +
      +
    • +
    • +

      traducteur.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Traductions en temps réel dans six langues différentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Interface utilisateur activée par mot de réveil et basée sur la voix vers l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dépendances: Exécuter pip install openai keyboard realtimestt.
      • +
      • Description : Choisissez le moteur et la voix TTS avant de démarrer la conversation sur l'IA.
      • +
      +
    • +
    • +

      _talkbot.py minimaliste

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Un talkbot basique en 20 lignes de code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : Démonstration simple de la façon d'intégrer la bibliothèque avec de grands modèles de langage (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : présente les rappels et vous permet de vérifier les temps de latence dans un environnement d'application réel.
      • +
      +
    • +
    +

    Mettre en pause, reprendre et arrêter

    +

    Mettre en pause le flux audio :

    +

    ``(`python +stream.pause()

    +

    Reprendre un flux en pause :

    +

    ``(`python +stream.reprendre()

    +

    Arrêtez immédiatement le flux :

    +

    ``(`python +stream.stop()

    +

    Exigences expliquées

    +
      +
    • Version Python:
    • +
    • Obligatoire: Python >= 3.9, < 3.13
    • +
    • +

      Raison : La bibliothèque dépend de la bibliothèque GitHub « TTS » de coqui, qui nécessite des versions Python dans cette gamme.

      +
    • +
    • +

      PyAudio : pour créer un flux audio de sortie

      +
    • +
    • +

      stream2sent : pour diviser le flux de texte entrant en phrases

      +
    • +
    • +

      pyttsx3 : Moteur de conversion texte-parole du système

      +
    • +
    • +

      pydub : pour convertir les formats de morceaux audio

      +
    • +
    • +

      azure-cognitiveservices-speech : Moteur de conversion texte-parole azur

      +
    • +
    • +

      elevenlabs : Moteur de conversion texte-parole Elevenlabs

      +
    • +
    • +

      coqui-TTS : Bibliothèque de synthèse vocale XTTS de Coqui pour un TTS neuronal local de haute qualité

      +
    • +
    +

    Criez à Idiap Research Institute pour entretenir une fourche de coqui tts.

    +
      +
    • +

      openai : pour interagir avec l'API TTS d'OpenAI

      +
    • +
    • +

      gtts : Google traduit la conversion texte-parole

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/hi/api/index.html b/hi/hi/api/index.html new file mode 100755 index 0000000..ffc9eff --- /dev/null +++ b/hi/hi/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    हिंदी

    + +

    कॉन्फ़िगरेशन

    +

    TextToAudioStream के लिए प्रारंभिक पैरामीटर

    +

    जब आप TextToAudioStream क्लास का इनिशियलाइज़ेशन करते हैं, तो आपके पास इसके व्यवहार को कस्टमाइज़ करने के लिए विभिन्न विकल्प होते हैं। यहाँ उपलब्ध पैरामीटर हैं:

    +

    engine (BaseEngine)

    +
      +
    • प्रकार: BaseEngine
    • +
    • आवश्यकता: हाँ
    • +
    • विवरण: टेक्स्ट-से-ऑडियो सिंथेसिस के लिए ज़िम्मेदार आधार इंजन। आपको ऑडियो सिंथेसिस को सक्षम करने के लिए BaseEngine या इसके सबक्लास का एक इंस्टेंस प्रदान करना होगा।
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब ट्रिगर होता है जब टेक्स्ट स्ट्रीम शुरू होती है। इसे किसी सेटअप या लॉगिंग के लिए उपयोग करें।
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन टेक्स्ट स्ट्रीम समाप्त होने पर सक्रिय होता है। इसे क्लीनअप कार्यों या लॉगिंग के लिए उपयोग किया जा सकता है।
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब चालू होता है जब ऑडियो स्ट्रीम शुरू होती है। यह UI अपडेट या इवेंट लॉगिंग के लिए सहायक है।
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन ऑडियो स्ट्रीम समाप्त होने पर कॉल किया जाता है। यह संसाधन क्लीनअप या पोस्ट-प्रोसेसिंग कार्यों के लिए आदर्श है।
    • +
    +

    on_character (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब कॉल किया जाता है जब एकल कैरेक्टर प्रोसेस किया जाता है।
    • +
    +

    output_device_index (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: उपयोग करने के लिए आउटपुट डिवाइस इंडेक्स निर्दिष्ट करता है। None डिफ़ॉल्ट डिवाइस का उपयोग करता है।
    • +
    +

    tokenizer (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: nltk
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग किए जाने वाले टोकनाइज़र (वर्तमान में "nltk" और "stanza" समर्थित हैं)।
    • +
    +

    language (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: en
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +

    muted (bool)

    +
      +
    • प्रकार: बूल
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: ग्लोबल म्यूटेड पैरामीटर। अगर True है, तो कोई pyAudio स्ट्रीम नहीं खोली जाएगी। स्थानीय स्पीकरों के माध्यम से ऑडियो प्लेबैक को अक्षम करता है और प्ले पैरामीटर म्यूट सेटिंग को ओवरराइड करता है।
    • +
    +

    level (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: logging.WARNING
    • +
    • विवरण: आंतरिक लॉगर के लिए लॉगिंग स्तर सेट करता है। यह पायथन के बिल्ट-इन logging मॉड्यूल से कोई भी इंटीजर कॉन्स्टेंट हो सकता है।
    • +
    +

    उदाहरण उपयोग:

    +
    engine = YourEngine()  # अपने इंजन के साथ प्रतिस्थापित करें
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    मेथड्स

    +

    play और play_async

    +

    ये मेथड्स टेक्स्ट-से-ऑडियो सिंथेसिस को निष्पादित करने और ऑडियो स्ट्रीम प्ले करने के लिए जिम्मेदार हैं। play एक ब्लॉकिंग फंक्शन है, जबकि play_async एक अलग थ्रेड में चलता है, जिससे अन्य ऑपरेशंस जारी रह सकते हैं।

    +
    पैरामीटर:
    +
    fast_sentence_fragment (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह विधि स्पीड को प्राथमिकता देगी, और वाक्यांशों को तेजी से जनरेट और प्ले करेगी। यह ऐसे अनुप्रयोगों के लिए सहायक है जहाँ विलंबता मायने रखती है।
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो सभी वाक्यों पर फास्ट वाक्यांश प्रोसेसिंग लागू करता है।
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह एकल के बजाय एकाधिक वाक्यांश उत्पन्न करने की अनुमति देता है।
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • डिफ़ॉल्ट: 0.0
    • +
    • +

      विवरण: बफ़रिंग सीमा के लिए समय को सेकंड में निर्दिष्ट करता है, जो ऑडियो प्लेबैक की स्थिरता और निरंतरता को प्रभावित करता है।

      +
    • +
    • +

      कैसे काम करता है: नए वाक्य का सिंथेसिस करने से पहले, सिस्टम यह जांचता है कि क्या बफ़र में निर्दिष्ट समय से अधिक ऑडियो सामग्री बची है। इससे यह सुनिश्चित होता है कि अधिक प्री-बफ़र किए गए ऑडियो से प्लेबैक में मौन या अंतराल कम हो।

      +
    • +
    +
    minimum_sentence_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: एक स्ट्रिंग को सिंथेसाइज़ करने के लिए वाक्य के रूप में मानने के लिए न्यूनतम कैरेक्टर की लंबाई सेट करता है।
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: पहले वाक्यांश के लिए आवश्यक न्यूनतम कैरेक्टर की संख्या सेट करता है।
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: सक्षम होने पर, ऑडियो में सिंथेसाइज़ होते समय टेक्स्ट के अंशों को लॉग करता है।
    • +
    +
    reset_generated_text (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: अगर True है, तो प्रोसेसिंग से पहले जनरेट किए गए टेक्स्ट को रीसेट करता है।
    • +
    +
    output_wavfile (str)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: यदि सेट है, तो ऑडियो को निर्दिष्ट WAV फाइल में सहेजता है।
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने के बाद कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने से पहले कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल ऑडियो टुकड़ा तैयार होने पर कॉल किया जाने वाला कॉलबैक फंक्शन।
    • +
    +
    tokenizer (str)
    +
      +
    • डिफ़ॉल्ट: "nltk"
    • +
    • विवरण: वाक्य विभाजन के लिए टोकनाइज़र। वर्तमान में "nltk" और "stanza" का समर्थन है।
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: टेक्स्ट से वाक्य को टोकनाइज़ करने
    • +
    +

    वाला एक कस्टम फंक्शन। यदि आप nltk और stanza से संतुष्ट नहीं हैं, तो अपना स्वयं का टोकनाइज़र प्रदान कर सकते हैं।

    +
    language (str)
    +
      +
    • डिफ़ॉल्ट: "en"
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +
    context_size (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाने के लिए संदर्भ स्थापित करने के लिए प्रयुक्त कैरेक्टर की संख्या।
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाते समय आगे देखने के लिए अतिरिक्त संदर्भ आकार।
    • +
    +
    muted (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: यदि True है, तो स्थानीय स्पीकर के माध्यम से ऑडियो प्लेबैक को अक्षम करता है।
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • डिफ़ॉल्ट: ".?!;:,\n…)]}。-"
    • +
    • विवरण: उन कैरेक्टर की स्ट्रिंग जो वाक्य सीमाओं के रूप में माने जाते हैं।
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • डिफ़ॉल्ट: 15
    • +
    • विवरण: पहले वाक्यांश को उत्पन्न करने के लिए आवश्यक शब्दों की संख्या।
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/hi/contributing/index.html b/hi/hi/contributing/index.html new file mode 100755 index 0000000..36f0431 --- /dev/null +++ b/hi/hi/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS में योगदान करें

    +

    हम RealtimeTTS में आपके योगदान का स्वागत करते हैं! आप इन तरीकों से योगदान कर सकते हैं:

    +
      +
    1. +

      बग रिपोर्ट करना: यदि आपको कोई बग मिलता है, तो कृपया हमारे GitHub रिपॉजिटरी पर एक इश्यू खोलें।

      +
    2. +
    3. +

      सुधारों का सुझाव देना: क्या आपके पास नई सुविधाओं या सुधारों के लिए सुझाव हैं? हमें उन्हें सुनकर खुशी होगी! कृपया सुधारों का सुझाव देने के लिए एक इश्यू खोलें।

      +
    4. +
    5. +

      कोड योगदान: कोई नई सुविधा जोड़ना चाहते हैं या किसी बग को ठीक करना चाहते हैं? शानदार! कृपया इन चरणों का पालन करें:

      +
    6. +
    7. रिपॉजिटरी को फोर्क करें
    8. +
    9. अपने फीचर के लिए एक नई ब्रांच बनाएं
    10. +
    11. अपने बदलाव करें
    12. +
    13. +

      अपने बदलावों का स्पष्ट विवरण देते हुए एक पुल रिक्वेस्ट सबमिट करें

      +
    14. +
    15. +

      दस्तावेज़ीकरण: टाइपो सुधारने, उदाहरण जोड़ने या भ्रमित करने वाले भागों को स्पष्ट करके हमें अपने दस्तावेज़ीकरण में सुधार करने में मदद करें।

      +
    16. +
    17. +

      नए इंजनों को जोड़ना: यदि आप किसी नए TTS इंजन के लिए समर्थन जोड़ना चाहते हैं, तो कृपया पहले एक इश्यू खोलें ताकि हम इसके कार्यान्वयन पर चर्चा कर सकें।

      +
    18. +
    +

    RealtimeTTS को बेहतर बनाने में मदद करने के लिए धन्यवाद!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/hi/faq/index.html b/hi/hi/faq/index.html new file mode 100755 index 0000000..2f60d16 --- /dev/null +++ b/hi/hi/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    अक्सर पूछे जाने वाले प्रश्न

    +

    RealtimeTTS से संबंधित अक्सर पूछे जाने वाले प्रश्नों के उत्तर के लिए, कृपया हमारे GitHub पर FAQ पेज पर जाएँ।

    +

    यह पेज विभिन्न विषयों को कवर करता है, जिनमें शामिल हैं:

    +
      +
    • विभिन्न TTS इंजनों का उपयोग
    • +
    • बहुभाषी टेक्स्ट को संभालना
    • +
    • प्रदर्शन में सुधार
    • +
    • सामान्य समस्याओं का समाधान
    • +
    +

    अधिक विस्तृत जानकारी के लिए, कृपया ऊपर दिए गए लिंक पर जाएँ।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/hi/index.html b/hi/hi/index.html new file mode 100755 index 0000000..de30396 --- /dev/null +++ b/hi/hi/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    रीयल-टाइम अनुप्रयोगों के लिए उपयोग में आसान, कम-विलंबता वाला टेक्स्ट-टू-स्पीच लाइब्रेरी

    +

    परियोजना के बारे में

    +

    RealtimeTTS एक अत्याधुनिक टेक्स्ट-टू-स्पीच (TTS) लाइब्रेरी है, जिसे रीयल-टाइम अनुप्रयोगों के लिए डिज़ाइन किया गया है। इसकी सबसे बड़ी विशेषता यह है कि यह न्यूनतम विलंबता के साथ टेक्स्ट स्ट्रीम को तेज़ी से उच्च-गुणवत्ता वाली ध्वनि में परिवर्तित कर सकता है।

    +

    मुख्य विशेषताएँ

    +
      +
    • कम विलंबता: लगभग तात्कालिक टेक्स्ट-टू-स्पीच रूपांतरण, LLM आउटपुट के अनुकूल
    • +
    • उच्च-गुणवत्ता वाली ध्वनि: स्पष्ट और प्राकृतिक-ध्वनि उत्पन्न करता है
    • +
    • विभिन्न TTS इंजनों का समर्थन: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS और System TTS का समर्थन करता है
    • +
    • बहुभाषी समर्थन
    • +
    • मजबूत और विश्वसनीय: लगातार संचालन सुनिश्चित करने के लिए एक फ़ॉलबैक तंत्र का उपयोग करता है, व्यवधानों के मामले में वैकल्पिक इंजनों पर स्विच करता है, जो स्थिरता और विश्वसनीयता की गारंटी देता है
    • +
    +

    स्थापना निर्देशों, उपयोग के उदाहरणों और API संदर्भ के लिए, कृपया साइडबार का उपयोग करके दस्तावेज़ में नेविगेट करें।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/hi/installation/index.html b/hi/hi/installation/index.html new file mode 100755 index 0000000..3c83cc2 --- /dev/null +++ b/hi/hi/installation/index.html @@ -0,0 +1,2216 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | HN

    +
    +

    नोट: pip install realtimetts का बेसिक इंस्टॉलेशन अब अनुशंसित नहीं है, इसके बजाय pip install realtimetts[all] का उपयोग करें।

    +
    +

    RealtimeTTS लाइब्रेरी विभिन्न निर्भरताओं के साथ इंस्टॉलेशन के विकल्प प्रदान करती है, ताकि आप अपने उपयोग के अनुसार इसे स्थापित कर सकें। यहाँ इंस्टॉलेशन के विभिन्न विकल्प दिए गए हैं:

    +

    पूर्ण स्थापना

    +

    सभी TTS इंजनों के समर्थन के साथ RealtimeTTS स्थापित करने के लिए:

    +
    pip install -U realtimetts[all]
    +
    +

    कस्टम इंस्टॉलेशन

    +

    RealtimeTTS में न्यूनतम लाइब्रेरी इंस्टॉलेशन के साथ कस्टम इंस्टॉलेशन की सुविधा है। उपलब्ध विकल्प:

    +
      +
    • all: सभी इंजनों के साथ पूर्ण इंस्टॉलेशन।
    • +
    • system: सिस्टम-विशिष्ट TTS क्षमताएँ शामिल करता है (जैसे, pyttsx3)।
    • +
    • azure: Azure Cognitive Services Speech का समर्थन जोड़ता है।
    • +
    • elevenlabs: ElevenLabs API के साथ एकीकरण।
    • +
    • openai: OpenAI वॉइस सेवाओं के लिए।
    • +
    • gtts: Google Text-to-Speech समर्थन।
    • +
    • coqui: Coqui TTS इंजन स्थापित करता है।
    • +
    • minimal: केवल बेस आवश्यकताओं को स्थापित करता है, बिना किसी इंजन के (यदि आप अपना इंजन विकसित करना चाहते हैं तो इसकी आवश्यकता होती है)।
    • +
    +

    उदाहरण के लिए, केवल स्थानीय न्यूरल Coqui TTS उपयोग के लिए RealtimeTTS स्थापित करना हो, तो उपयोग करें:

    +
    pip install realtimetts[coqui]
    +
    +

    अगर आप केवल Azure Cognitive Services Speech, ElevenLabs, और OpenAI का समर्थन चाहते हैं तो:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    वर्चुअल एनवायरनमेंट इंस्टॉलेशन

    +

    यदि आप एक वर्चुअल एनवायरनमेंट में पूर्ण स्थापना करना चाहते हैं, तो ये कदम अपनाएँ:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA इंस्टॉलेशन के बारे में अधिक जानकारी।

    +

    इंजन आवश्यकताएँ

    +

    RealtimeTTS द्वारा समर्थित विभिन्न इंजनों की अलग-अलग आवश्यकताएँ हैं। अपनी पसंद के अनुसार इन आवश्यकताओं को पूरा करना सुनिश्चित करें।

    +

    SystemEngine

    +

    SystemEngine आपके सिस्टम की अंतर्निहित TTS क्षमताओं के साथ स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    GTTSEngine

    +

    GTTSEngine Google Translate के टेक्स्ट-टू-स्पीच API का उपयोग करके स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    OpenAIEngine

    +

    OpenAIEngine का उपयोग करने के लिए: +- पर्यावरण वेरिएबल OPENAI_API_KEY सेट करें +- ffmpeg स्थापित करें (देखें CUDA इंस्टॉलेशन बिंदु 3)

    +

    AzureEngine

    +

    AzureEngine का उपयोग करने के लिए आपको चाहिए: +- Microsoft Azure Text-to-Speech API कुंजी (AzureEngine में "speech_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल AZURE_SPEECH_KEY में) +- Microsoft Azure सेवा क्षेत्र।

    +

    इंस्टॉल करते समय ये क्रेडेंशियल उपलब्ध और सही तरीके से कॉन्फ़िगर करना सुनिश्चित करें।

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine के लिए, आपको चाहिए: +- Elevenlabs API कुंजी (ElevenlabsEngine में "api_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल ELEVENLABS_API_KEY में) +- आपके सिस्टम पर mpv स्थापित हो (mpeg ऑडियो स्ट्रीमिंग के लिए आवश्यक है, Elevenlabs केवल mpeg प्रदान करता है)।

    +

    🔹 mpv स्थापित करना: + - macOS: + brew install mpv

    +
      +
    • Linux और Windows: इंस्टॉलेशन के निर्देशों के लिए mpv.io पर जाएं।
    • +
    +

    CoquiEngine

    +

    उच्च गुणवत्ता, स्थानीय, न्यूरल TTS प्रदान करता है जिसमें वॉइस-क्लोनिंग भी शामिल है।

    +

    पहली बार एक न्यूरल TTS मॉडल डाउनलोड करता है। अधिकतर मामलों में GPU सिंथेसिस का उपयोग करते हुए रीयल-टाइम के लिए पर्याप्त तेज़ होगा। लगभग 4-5 GB VRAM की आवश्यकता होती है।

    +
      +
    • वॉइस क्लोन करने के लिए CoquiEngine के "voice" पैरामीटर में एक वेव फ़ाइल का नाम दर्ज करें जिसमें स्रोत वॉइस हो।
    • +
    • वॉइस क्लोनिंग के लिए 22050 Hz मोनो 16-बिट WAV फाइल के साथ लगभग 5-30 सेकंड की नमूना ऑडियो फ़ाइल सबसे अच्छा परिणाम देती है।
    • +
    +

    CUDA इंस्टॉलेशन

    +

    वे लोग जिनके पास NVIDIA GPU है और जो बेहतर प्रदर्शन चाहते हैं, उनके लिए ये कदम अनुशंसित हैं।

    +
    +

    नोट: अगर आपका NVIDIA GPU CUDA को सपोर्ट करता है तो आधिकारिक CUDA GPUs सूची पर जाँचें।

    +
    +

    CUDA समर्थन के साथ torch का उपयोग करने के लिए, इन चरणों का पालन करें:

    +
      +
    1. +

      NVIDIA CUDA टूलकिट स्थापित करें: + उदाहरण के लिए, टूलकिट 12.X स्थापित करने के लिए:

      +
        +
      • NVIDIA CUDA डाउनलोड पर जाएँ।
      • +
      • अपने ऑपरेटिंग सिस्टम, सिस्टम आर्किटेक्चर, और ओएस संस्करण का चयन करें।
      • +
      • सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।
      • +
      +
    2. +
    3. +

      NVIDIA cuDNN स्थापित करें:

      +

      उदाहरण के लिए, CUDA 11.x के लिए cuDNN 8.7.0 स्थापित करने के लिए: +- NVIDIA cuDNN Archive पर जाएं। +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x" पर क्लिक करें। +- सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।

      +
    4. +
    5. +

      ffmpeg स्थापित करें:

      +

      आप अपने OS के लिए ffmpeg वेबसाइट से इंस्टॉलर डाउनलोड कर सकते हैं: ffmpeg Website

      +
    6. +
    7. +

      CUDA समर्थन के साथ PyTorch स्थापित करें:

      +

      अपने सिस्टम और आवश्यकताओं के अनुसार PyTorch संस्करण को CUDA समर्थन के साथ अपग्रेड करने के लिए:

      +
        +
      • +

        CUDA 11.8 के लिए:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        CUDA 12.X के लिए:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +
    8. +
    9. +

      संगतता समस्याओं को हल करने के लिए फिक्स: + यदि आप लाइब्रेरी संगतता मुद्दों का सामना करते हैं, तो इन लाइब्रेरी संस्करणों को फिक्स करने का प्रयास करें:

      +
    10. +
    +

    pip install networkx==2.8.8 + pip install typing_extensions==4.8.0 + pip install fsspec==2023.6.0 + pip install imageio==2.31.6 + pip install numpy==1.24.3 + pip install requests==2.31.0

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/hi/usage/index.html b/hi/hi/usage/index.html new file mode 100755 index 0000000..9372b84 --- /dev/null +++ b/hi/hi/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    उपयोग

    +

    त्वरित प्रारंभ

    +

    यहाँ एक बुनियादी उदाहरण दिया गया है:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # अपनी TTS-इंजन के साथ इसे बदलें
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    टेक्स्ट इनपुट

    +

    आप व्यक्तिगत स्ट्रिंग्स इनपुट कर सकते हैं:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    या आप वास्तविक समय-स्ट्रीमिंग के लिए जनरेटर और कैरेक्टर-इटरेटर का उपयोग कर सकते हैं:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    प्लेबैक

    +

    असिंक्रोनस:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    सिंक्रोनस:

    +
    stream.play()
    +
    +

    लाइब्रेरी का परीक्षण

    +

    परीक्षण-सबडायरेक्टरी में विभिन्न स्क्रिप्ट्स शामिल हैं, जो आपको RealtimeTTS लाइब्रेरी की क्षमताओं को समझने और आकलन करने में मदद करती हैं।

    +

    ध्यान दें कि अधिकांश परीक्षण अभी भी "पुरानी" OpenAI API (<1.0.0) पर आधारित हैं। नई OpenAI API का उपयोग openai_1.0_test.py में प्रदर्शित किया गया है।

    +
      +
    • +

      simple_test.py

      +
        +
      • विवरण: सबसे आसान लाइब्रेरी उपयोग का एक "Hello World" जैसा प्रदर्शन।
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • विवरण: लाइब्रेरी की अधिकतम कार्यक्षमता का व्यापक प्रदर्शन।
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • विवरण: स्थानीय Coqui TTS-इंजन का परीक्षण।
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: वास्तविक समय में छह विभिन्न भाषाओं में अनुवाद।
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: एक्टिवेशन-वर्ड के माध्यम से और आवाज-आधारित इंटरफ़ेस के साथ OpenAI API का उपयोग।
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • आवश्यकताएँ: pip install openai keyboard realtimestt कमांड चलाएँ।
      • +
      • विवरण: AI बातचीत शुरू करने से पहले TTS-इंजन और आवाज का चयन।
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: 20 कोड लाइनों में एक साधारण टॉकबोट।
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: लाइब्रेरी की LLMs के साथ एकीकृत करने का सरल प्रदर्शन।
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: वास्तविक वातावरण में विलंब समय को मापने और प्रतिक्रिया को प्रदर्शित करता है।
      • +
      +
    • +
    +

    रुकना, पुनः आरंभ करना और रोकना

    +

    ऑडियो स्ट्रीम को रोकें:

    +
    stream.pause()
    +
    +

    रुकी हुई स्ट्रीम पुनः प्रारंभ करें:

    +
    stream.resume()
    +
    +

    स्ट्रीम तुरंत रोकें:

    +
    stream.stop()
    +
    +

    आवश्यकताओं का स्पष्टीकरण

    +
      +
    • Python संस्करण:
    • +
    • आवश्यक: Python >= 3.9, < 3.13
    • +
    • +

      कारण: लाइब्रेरी Coqui की GitHub लाइब्रेरी "TTS" पर निर्भर करती है, जो इस संस्करण सीमा का समर्थन करती है।

      +
    • +
    • +

      PyAudio: ऑडियो आउटपुट स्ट्रीम बनाने के लिए

      +
    • +
    • +

      stream2sentence: इनकमिंग टेक्स्ट स्ट्रीम को वाक्यों में विभाजित करने के लिए

      +
    • +
    • +

      pyttsx3: सिस्टम Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      pydub: ऑडियो चंक फॉर्मेट्स में कन्वर्शन के लिए

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      coqui-TTS: उच्च गुणवत्ता वाली स्थानीय न्यूरल TTS के लिए Coqui का XTTS Text-to-Speech लाइब्रेरी

      +
    • +
    +

    Idiap Research Institute को उनके Coqui TTS का Fork बनाए रखने के लिए धन्यवाद।

    +
      +
    • +

      openai: OpenAI TTS API के साथ बातचीत के लिए

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech कन्वर्शन

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/index.html b/hi/index.html new file mode 100755 index 0000000..c6f405b --- /dev/null +++ b/hi/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    रीयल-टाइम अनुप्रयोगों के लिए उपयोग में आसान, कम-विलंबता वाला टेक्स्ट-टू-स्पीच लाइब्रेरी

    +

    परियोजना के बारे में

    +

    RealtimeTTS एक अत्याधुनिक टेक्स्ट-टू-स्पीच (TTS) लाइब्रेरी है, जिसे रीयल-टाइम अनुप्रयोगों के लिए डिज़ाइन किया गया है। इसकी सबसे बड़ी विशेषता यह है कि यह न्यूनतम विलंबता के साथ टेक्स्ट स्ट्रीम को तेज़ी से उच्च-गुणवत्ता वाली ध्वनि में परिवर्तित कर सकता है।

    +

    मुख्य विशेषताएँ

    +
      +
    • कम विलंबता: लगभग तात्कालिक टेक्स्ट-टू-स्पीच रूपांतरण, LLM आउटपुट के अनुकूल
    • +
    • उच्च-गुणवत्ता वाली ध्वनि: स्पष्ट और प्राकृतिक-ध्वनि उत्पन्न करता है
    • +
    • विभिन्न TTS इंजनों का समर्थन: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS और System TTS का समर्थन करता है
    • +
    • बहुभाषी समर्थन
    • +
    • मजबूत और विश्वसनीय: लगातार संचालन सुनिश्चित करने के लिए एक फ़ॉलबैक तंत्र का उपयोग करता है, व्यवधानों के मामले में वैकल्पिक इंजनों पर स्विच करता है, जो स्थिरता और विश्वसनीयता की गारंटी देता है
    • +
    +

    स्थापना निर्देशों, उपयोग के उदाहरणों और API संदर्भ के लिए, कृपया साइडबार का उपयोग करके दस्तावेज़ में नेविगेट करें।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/installation/index.html b/hi/installation/index.html new file mode 100755 index 0000000..bc2c968 --- /dev/null +++ b/hi/installation/index.html @@ -0,0 +1,2216 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | HN

    +
    +

    नोट: pip install realtimetts का बेसिक इंस्टॉलेशन अब अनुशंसित नहीं है, इसके बजाय pip install realtimetts[all] का उपयोग करें।

    +
    +

    RealtimeTTS लाइब्रेरी विभिन्न निर्भरताओं के साथ इंस्टॉलेशन के विकल्प प्रदान करती है, ताकि आप अपने उपयोग के अनुसार इसे स्थापित कर सकें। यहाँ इंस्टॉलेशन के विभिन्न विकल्प दिए गए हैं:

    +

    पूर्ण स्थापना

    +

    सभी TTS इंजनों के समर्थन के साथ RealtimeTTS स्थापित करने के लिए:

    +
    pip install -U realtimetts[all]
    +
    +

    कस्टम इंस्टॉलेशन

    +

    RealtimeTTS में न्यूनतम लाइब्रेरी इंस्टॉलेशन के साथ कस्टम इंस्टॉलेशन की सुविधा है। उपलब्ध विकल्प:

    +
      +
    • all: सभी इंजनों के साथ पूर्ण इंस्टॉलेशन।
    • +
    • system: सिस्टम-विशिष्ट TTS क्षमताएँ शामिल करता है (जैसे, pyttsx3)।
    • +
    • azure: Azure Cognitive Services Speech का समर्थन जोड़ता है।
    • +
    • elevenlabs: ElevenLabs API के साथ एकीकरण।
    • +
    • openai: OpenAI वॉइस सेवाओं के लिए।
    • +
    • gtts: Google Text-to-Speech समर्थन।
    • +
    • coqui: Coqui TTS इंजन स्थापित करता है।
    • +
    • minimal: केवल बेस आवश्यकताओं को स्थापित करता है, बिना किसी इंजन के (यदि आप अपना इंजन विकसित करना चाहते हैं तो इसकी आवश्यकता होती है)।
    • +
    +

    उदाहरण के लिए, केवल स्थानीय न्यूरल Coqui TTS उपयोग के लिए RealtimeTTS स्थापित करना हो, तो उपयोग करें:

    +
    pip install realtimetts[coqui]
    +
    +

    अगर आप केवल Azure Cognitive Services Speech, ElevenLabs, और OpenAI का समर्थन चाहते हैं तो:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    वर्चुअल एनवायरनमेंट इंस्टॉलेशन

    +

    यदि आप एक वर्चुअल एनवायरनमेंट में पूर्ण स्थापना करना चाहते हैं, तो ये कदम अपनाएँ:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA इंस्टॉलेशन के बारे में अधिक जानकारी।

    +

    इंजन आवश्यकताएँ

    +

    RealtimeTTS द्वारा समर्थित विभिन्न इंजनों की अलग-अलग आवश्यकताएँ हैं। अपनी पसंद के अनुसार इन आवश्यकताओं को पूरा करना सुनिश्चित करें।

    +

    SystemEngine

    +

    SystemEngine आपके सिस्टम की अंतर्निहित TTS क्षमताओं के साथ स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    GTTSEngine

    +

    GTTSEngine Google Translate के टेक्स्ट-टू-स्पीच API का उपयोग करके स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    OpenAIEngine

    +

    OpenAIEngine का उपयोग करने के लिए: +- पर्यावरण वेरिएबल OPENAI_API_KEY सेट करें +- ffmpeg स्थापित करें (देखें CUDA इंस्टॉलेशन बिंदु 3)

    +

    AzureEngine

    +

    AzureEngine का उपयोग करने के लिए आपको चाहिए: +- Microsoft Azure Text-to-Speech API कुंजी (AzureEngine में "speech_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल AZURE_SPEECH_KEY में) +- Microsoft Azure सेवा क्षेत्र।

    +

    इंस्टॉल करते समय ये क्रेडेंशियल उपलब्ध और सही तरीके से कॉन्फ़िगर करना सुनिश्चित करें।

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine के लिए, आपको चाहिए: +- Elevenlabs API कुंजी (ElevenlabsEngine में "api_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल ELEVENLABS_API_KEY में) +- आपके सिस्टम पर mpv स्थापित हो (mpeg ऑडियो स्ट्रीमिंग के लिए आवश्यक है, Elevenlabs केवल mpeg प्रदान करता है)।

    +

    🔹 mpv स्थापित करना: + - macOS: + brew install mpv

    +
      +
    • Linux और Windows: इंस्टॉलेशन के निर्देशों के लिए mpv.io पर जाएं।
    • +
    +

    CoquiEngine

    +

    उच्च गुणवत्ता, स्थानीय, न्यूरल TTS प्रदान करता है जिसमें वॉइस-क्लोनिंग भी शामिल है।

    +

    पहली बार एक न्यूरल TTS मॉडल डाउनलोड करता है। अधिकतर मामलों में GPU सिंथेसिस का उपयोग करते हुए रीयल-टाइम के लिए पर्याप्त तेज़ होगा। लगभग 4-5 GB VRAM की आवश्यकता होती है।

    +
      +
    • वॉइस क्लोन करने के लिए CoquiEngine के "voice" पैरामीटर में एक वेव फ़ाइल का नाम दर्ज करें जिसमें स्रोत वॉइस हो।
    • +
    • वॉइस क्लोनिंग के लिए 22050 Hz मोनो 16-बिट WAV फाइल के साथ लगभग 5-30 सेकंड की नमूना ऑडियो फ़ाइल सबसे अच्छा परिणाम देती है।
    • +
    +

    CUDA इंस्टॉलेशन

    +

    वे लोग जिनके पास NVIDIA GPU है और जो बेहतर प्रदर्शन चाहते हैं, उनके लिए ये कदम अनुशंसित हैं।

    +
    +

    नोट: अगर आपका NVIDIA GPU CUDA को सपोर्ट करता है तो आधिकारिक CUDA GPUs सूची पर जाँचें।

    +
    +

    CUDA समर्थन के साथ torch का उपयोग करने के लिए, इन चरणों का पालन करें:

    +
      +
    1. +

      NVIDIA CUDA टूलकिट स्थापित करें: + उदाहरण के लिए, टूलकिट 12.X स्थापित करने के लिए:

      +
        +
      • NVIDIA CUDA डाउनलोड पर जाएँ।
      • +
      • अपने ऑपरेटिंग सिस्टम, सिस्टम आर्किटेक्चर, और ओएस संस्करण का चयन करें।
      • +
      • सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।
      • +
      +
    2. +
    3. +

      NVIDIA cuDNN स्थापित करें:

      +

      उदाहरण के लिए, CUDA 11.x के लिए cuDNN 8.7.0 स्थापित करने के लिए: +- NVIDIA cuDNN Archive पर जाएं। +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x" पर क्लिक करें। +- सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।

      +
    4. +
    5. +

      ffmpeg स्थापित करें:

      +

      आप अपने OS के लिए ffmpeg वेबसाइट से इंस्टॉलर डाउनलोड कर सकते हैं: ffmpeg Website

      +
    6. +
    7. +

      CUDA समर्थन के साथ PyTorch स्थापित करें:

      +

      अपने सिस्टम और आवश्यकताओं के अनुसार PyTorch संस्करण को CUDA समर्थन के साथ अपग्रेड करने के लिए:

      +
        +
      • +

        CUDA 11.8 के लिए:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        CUDA 12.X के लिए:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +
    8. +
    9. +

      संगतता समस्याओं को हल करने के लिए फिक्स: + यदि आप लाइब्रेरी संगतता मुद्दों का सामना करते हैं, तो इन लाइब्रेरी संस्करणों को फिक्स करने का प्रयास करें:

      +
    10. +
    +

    pip install networkx==2.8.8 + pip install typing_extensions==4.8.0 + pip install fsspec==2023.6.0 + pip install imageio==2.31.6 + pip install numpy==1.24.3 + pip install requests==2.31.0

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/it/api/index.html b/hi/it/api/index.html new file mode 100755 index 0000000..c8690f9 --- /dev/null +++ b/hi/it/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Italiano

    + +

    Configurazione

    +

    Parametri di Inizializzazione per TextToAudioStream

    +

    Quando si inizializza la classe TextToAudioStream, sono disponibili diverse opzioni per personalizzare il suo comportamento. Ecco i parametri disponibili:

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Obbligatorio: Sì
    • +
    • Descrizione: Il motore sottostante responsabile della sintesi da testo ad audio. È necessario fornire un'istanza di BaseEngine o della sua sottoclasse per abilitare la sintesi audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando inizia lo stream di testo. Utilizzala per qualsiasi configurazione o registrazione necessaria.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando termina lo stream di testo. Puoi utilizzarla per attività di pulizia o registrazione.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene invocata quando inizia lo stream audio. Utile per aggiornamenti dell'interfaccia utente o registrazione eventi.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando lo stream audio si ferma. Ideale per la pulizia delle risorse o attività di post-elaborazione.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando viene elaborato un singolo carattere.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: None
    • +
    • Descrizione: Specifica l'indice del dispositivo di output da utilizzare. None usa il dispositivo predefinito.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: nltk
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi (attualmente sono supportati "nltk" e "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: en
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Obbligatorio: No
    • +
    • Predefinito: False
    • +
    • Descrizione: Parametro globale di silenziamento. Se True, non verrà aperto alcuno stream pyAudio. Disabilita la riproduzione audio attraverso gli altoparlanti locali (nel caso in cui si desideri sintetizzare su file o elaborare chunk audio) e sovrascrive l'impostazione muted dei parametri di riproduzione.
    • +
    +

    level (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: logging.WARNING
    • +
    • Descrizione: Imposta il livello di logging per il logger interno. Può essere qualsiasi costante intera dal modulo logging integrato di Python.
    • +
    +

    Esempio di Utilizzo:

    +
    engine = YourEngine()  # Sostituire con il proprio motore
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Metodi

    +

    play e play_async

    +

    Questi metodi sono responsabili dell'esecuzione della sintesi testo-audio e della riproduzione dello stream audio. La differenza è che play è una funzione bloccante, mentre play_async viene eseguito in un thread separato, permettendo ad altre operazioni di procedere.

    +
    Parametri:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Quando impostato su True, il metodo darà priorità alla velocità, generando e riproducendo i frammenti di frase più rapidamente. Questo è utile per applicazioni dove la latenza è importante.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, applica l'elaborazione rapida dei frammenti di frase a tutte le frasi, non solo alla prima.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, permette di produrre più frammenti di frase invece di uno solo.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Predefinito: 0.0
    • +
    • +

      Descrizione: Specifica il tempo in secondi per la soglia di buffering, che influenza la fluidità e la continuità della riproduzione audio.

      +
    • +
    • +

      Come Funziona: Prima di sintetizzare una nuova frase, il sistema controlla se nel buffer rimane più materiale audio del tempo specificato da buffer_threshold_seconds. In caso affermativo, recupera un'altra frase dal generatore di testo, assumendo che possa recuperare e sintetizzare questa nuova frase entro la finestra temporale fornita dall'audio rimanente nel buffer. Questo processo consente al motore di sintesi vocale di avere più contesto per una migliore sintesi, migliorando l'esperienza utente.

      +
    • +
    +

    Un valore più alto assicura che ci sia più audio pre-bufferizzato, riducendo la probabilità di silenzi o interruzioni durante la riproduzione. Se si verificano interruzioni o pause, considera di aumentare questo valore.

    +
    minimum_sentence_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Imposta la lunghezza minima in caratteri per considerare una stringa come una frase da sintetizzare. Questo influisce su come vengono elaborati e riprodotti i chunk di testo.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Il numero minimo di caratteri richiesti per il primo frammento di frase prima della produzione.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando abilitato, registra i chunk di testo mentre vengono sintetizzati in audio. Utile per il controllo e il debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Se True, reimposta il testo generato prima dell'elaborazione.
    • +
    +
    output_wavfile (str)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Se impostato, salva l'audio nel file WAV specificato.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata dopo che un singolo frammento di frase è stato sintetizzato.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata prima che un singolo frammento di frase venga sintetizzato.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Funzione di callback che viene chiamata quando un singolo chunk audio è pronto.
    • +
    +
    tokenizer (str)
    +
      +
    • Predefinito: "nltk"
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi. Attualmente supporta "nltk" e "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione personalizzata che tokenizza le frasi dal testo di input. Puoi fornire il tuo tokenizer leggero se non sei soddisfatto di nltk e stanza. Dovrebbe prendere il testo come stringa e restituire le frasi divise come lista di stringhe.
    • +
    +
    language (str)
    +
      +
    • Predefinito: "en"
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +
    context_size (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Il numero di caratteri utilizzati per stabilire il contesto per il rilevamento dei confini della frase. Un contesto più ampio migliora la precisione nel rilevare i confini delle frasi.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Dimensione del contesto aggiuntiva per guardare avanti durante il rilevamento dei confini delle frasi.
    • +
    +
    muted (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Se True, disabilita la riproduzione audio attraverso gli altoparlanti locali. Utile quando si desidera sintetizzare su file o elaborare chunk audio senza riprodurli.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Predefinito: ".?!;:,\n…)]}。-"
    • +
    • Descrizione: Una stringa di caratteri che sono considerati delimitatori di frase.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Predefinito: 15
    • +
    • Descrizione: Il numero di parole dopo il quale viene forzata la produzione del primo frammento di frase.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/it/contributing/index.html b/hi/it/contributing/index.html new file mode 100755 index 0000000..0438158 --- /dev/null +++ b/hi/it/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuire a RealtimeTTS

    +

    Accogliamo con favore i contributi a RealtimeTTS! Ecco alcuni modi in cui puoi contribuire:

    +
      +
    1. +

      Segnalazione di bug: Se trovi un bug, apri un problema sul nostro repository GitHub.

      +
    2. +
    3. +

      Suggerendo Miglioramenti: Hai idee per nuove funzionalità o miglioramenti? Ci piacerebbe sentirli! Apri un problema per suggerire miglioramenti.

      +
    4. +
    5. +

      Contributi del codice: vuoi aggiungere una nuova funzionalità o correggere un bug? Grande! Si prega di seguire questi passaggi:

      +
    6. +
    7. Forchetta il repository
    8. +
    9. Crea un nuovo ramo per la tua funzione
    10. +
    11. Apporta le tue modifiche
    12. +
    13. +

      Invia una richiesta pull con una chiara descrizione delle modifiche

      +
    14. +
    15. +

      Documentazione: aiutaci a migliorare la nostra documentazione correggendo errori di battitura, aggiungendo esempi o chiarendo sezioni confuse.

      +
    16. +
    17. +

      Aggiunta di nuovi motori: se si desidera aggiungere il supporto per un nuovo motore TTS, aprire prima un problema per discutere l'implementazione.

      +
    18. +
    +

    Grazie per aver contribuito a rendere RealtimeTTS migliore!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/it/faq/index.html b/hi/it/faq/index.html new file mode 100755 index 0000000..f7db9f9 --- /dev/null +++ b/hi/it/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Domande frequenti

    +

    Per le risposte alle domande più frequenti su RealtimeTTS, fare riferimento alla nostra [pagina FAQ su GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Questa pagina tratta vari argomenti tra cui

    +
      +
    • Utilizzo di diversi motori TTS
    • +
    • Gestione del testo multilingue
    • +
    • Ottimizzazione delle prestazioni
    • +
    • Risoluzione dei problemi comuni
    • +
    +

    Per informazioni più dettagliate, visitare il link sopra.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/it/index.html b/hi/it/index.html new file mode 100755 index 0000000..085727e --- /dev/null +++ b/hi/it/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Libreria text-to-speech facile da usare e a bassa latenza per applicazioni in tempo reale

    +

    Informazioni sul progetto

    +

    RealtimeTTS è una libreria text-to-speech (TTS) all'avanguardia progettata per applicazioni in tempo reale. Si distingue per la sua capacità di convertire rapidamente i flussi di testo in output uditivo di alta qualità con una latenza minima.

    +

    Caratteristiche principali

    +
      +
    • Bassa latenza: conversione testo-discorso quasi istantanea, compatibile con le uscite LLM
    • +
    • Audio di alta qualità: generi un discorso chiaro e dal suono naturale
    • +
    • Multiplo supporto motore TTS: supportoa OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS e System TTS
    • +
    • Multilingue
    • +
    • Robust and Reliable: assicurazione un divertimento continuo attraverso un meccanismo di ripiego, passa a motori alternativi in caso di interdizioni garantite prestazioni e affidabilità costanti
    • +
    +

    Per istruzioni di installazione, esempi di utilizzo e ritorno API, navigare nella documentazione utilizzando la barra laterale.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/it/installation/index.html b/hi/it/installation/index.html new file mode 100755 index 0000000..055c690 --- /dev/null +++ b/hi/it/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Italiano

    + +
    +

    Nota: L'installazione base con pip install realtimetts non è più raccomandata, utilizzare invece pip install realtimetts[all].

    +
    +

    La libreria RealtimeTTS fornisce opzioni di installazione per varie dipendenze in base al tuo caso d'uso. Ecco i diversi modi in cui puoi installare RealtimeTTS in base alle tue necessità:

    +

    Installazione Completa

    +

    Per installare RealtimeTTS con supporto per tutti i motori TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Installazione Personalizzata

    +

    RealtimeTTS permette un'installazione personalizzata con installazioni minime delle librerie. Ecco le opzioni disponibili: +- all: Installazione completa con tutti i motori supportati. +- system: Include le capacità TTS specifiche del sistema (es. pyttsx3). +- azure: Aggiunge il supporto Azure Cognitive Services Speech. +- elevenlabs: Include l'integrazione con l'API ElevenLabs. +- openai: Per i servizi vocali OpenAI. +- gtts: Supporto Google Text-to-Speech. +- coqui: Installa il motore Coqui TTS. +- minimal: Installa solo i requisiti base senza motore (necessario solo se si vuole sviluppare un proprio motore)

    +

    Se vuoi installare RealtimeTTS solo per l'uso locale di Coqui TTS neurale, dovresti utilizzare:

    +
    pip install realtimetts[coqui]
    +
    +

    Per esempio, se vuoi installare RealtimeTTS solo con il supporto per Azure Cognitive Services Speech, ElevenLabs e OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installazione in Ambiente Virtuale

    +

    Per chi vuole eseguire un'installazione completa all'interno di un ambiente virtuale, seguire questi passaggi:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Maggiori informazioni sull'installazione CUDA.

    +

    Requisiti dei Motori

    +

    I diversi motori supportati da RealtimeTTS hanno requisiti unici. Assicurati di soddisfare questi requisiti in base al motore che scegli.

    +

    SystemEngine

    +

    Il SystemEngine funziona subito con le capacità TTS integrate nel tuo sistema. Non è necessaria alcuna configurazione aggiuntiva.

    +

    GTTSEngine

    +

    Il GTTSEngine funziona subito utilizzando l'API text-to-speech di Google Translate. Non è necessaria alcuna configurazione aggiuntiva.

    +

    OpenAIEngine

    +

    Per utilizzare OpenAIEngine: +- impostare la variabile d'ambiente OPENAI_API_KEY +- installare ffmpeg (vedi installazione CUDA punto 3)

    +

    AzureEngine

    +

    Per utilizzare AzureEngine, avrai bisogno di: +- Chiave API Microsoft Azure Text-to-Speech (fornita tramite il parametro del costruttore AzureEngine "speech_key" o nella variabile d'ambiente AZURE_SPEECH_KEY) +- Regione del servizio Microsoft Azure.

    +

    Assicurati di avere queste credenziali disponibili e configurate correttamente quando inizializzi AzureEngine.

    +

    ElevenlabsEngine

    +

    Per ElevenlabsEngine, hai bisogno di: +- Chiave API Elevenlabs (fornita tramite il parametro del costruttore ElevenlabsEngine "api_key" o nella variabile d'ambiente ELEVENLABS_API_KEY) +- mpv installato sul tuo sistema (essenziale per lo streaming audio mpeg, Elevenlabs fornisce solo mpeg).

    +

    🔹 Installazione di mpv: + - macOS: + brew install mpv

    +
      +
    • Linux e Windows: Visita mpv.io per le istruzioni di installazione.
    • +
    +

    CoquiEngine

    +

    Fornisce TTS neurale locale di alta qualità con clonazione vocale.

    +

    Scarica prima un modello TTS neurale. Nella maggior parte dei casi sarà abbastanza veloce per il tempo reale utilizzando la sintesi GPU. Richiede circa 4-5 GB di VRAM.

    +
      +
    • per clonare una voce inviare il nome del file di un file wave contenente la voce sorgente come parametro "voice" al costruttore CoquiEngine
    • +
    • la clonazione vocale funziona meglio con un file WAV mono 16bit a 22050 Hz contenente un breve campione (circa 5-30 sec)
    • +
    +

    Sulla maggior parte dei sistemi sarà necessario il supporto GPU per funzionare abbastanza velocemente per il tempo reale, altrimenti si verificheranno interruzioni.

    +

    Installazione CUDA

    +

    Questi passaggi sono raccomandati per chi richiede migliori prestazioni e ha una GPU NVIDIA compatibile.

    +
    +

    Nota: per verificare se la tua GPU NVIDIA supporta CUDA, visita la lista ufficiale delle GPU CUDA.

    +
    +

    Per utilizzare torch con supporto via CUDA segui questi passaggi:

    +
    +

    Nota: le installazioni più recenti di pytorch potrebbero (non verificato) non necessitare più dell'installazione del Toolkit (e possibilmente cuDNN).

    +
    +
      +
    1. +

      Installa NVIDIA CUDA Toolkit: + Per esempio, per installare il Toolkit 12.X, per favore

      +
        +
      • Visita NVIDIA CUDA Downloads.
      • +
      • Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo.
      • +
      • Scarica e installa il software.
      • +
      +

      o per installare il Toolkit 11.8, per favore +- Visita NVIDIA CUDA Toolkit Archive. +- Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo. +- Scarica e installa il software.

      +
    2. +
    3. +

      Installa NVIDIA cuDNN:

      +

      Per esempio, per installare cuDNN 8.7.0 per CUDA 11.x per favore +- Visita NVIDIA cuDNN Archive. +- Clicca su "Download cuDNN v8.7.0 (28 Novembre 2022), per CUDA 11.x". +- Scarica e installa il software.

      +
    4. +
    5. +

      Installa ffmpeg:

      +

      Puoi scaricare un installer per il tuo sistema operativo dal sito web ffmpeg.

      +

      Oppure usa un gestore pacchetti:

      +
        +
      • +

        Su Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Su Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Su MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Su Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Su Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installa PyTorch con supporto CUDA:

      +

      Per aggiornare la tua installazione PyTorch per abilitare il supporto GPU con CUDA, segui queste istruzioni basate sulla tua versione CUDA specifica. Questo è utile se desideri migliorare le prestazioni di RealtimeSTT con le capacità CUDA.

      +
        +
      • +

        Per CUDA 11.8:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 11.8, usa i seguenti comandi:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Per CUDA 12.X:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 12.X, esegui quanto segue:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Sostituisci 2.3.1 con la versione di PyTorch che corrisponde al tuo sistema e requisiti.

      +
    8. +
    9. +

      Fix per risolvere problemi di compatibilità: + Se riscontri problemi di compatibilità delle librerie, prova a impostare queste librerie a versioni fisse:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/it/usage/index.html b/hi/it/usage/index.html new file mode 100755 index 0000000..21b493b --- /dev/null +++ b/hi/it/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Utilizzo

    +

    Avvio Rapido

    +

    Ecco un esempio di utilizzo base:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # sostituisci con il tuo motore TTS
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Inserimento del Testo

    +

    Puoi inserire singole stringhe:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oppure puoi inserire generatori e iteratori di caratteri per lo streaming in tempo reale:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Riproduzione

    +

    In modo asincrono:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    In modo sincrono:

    +
    stream.play()
    +
    +

    Test della Libreria

    +

    La sottodirectory test contiene una serie di script per aiutarti a valutare e comprendere le capacità della libreria RealtimeTTS.

    +

    Nota che la maggior parte dei test si basa ancora sulla "vecchia" API OpenAI (<1.0.0). L'utilizzo della nuova API OpenAI è dimostrato in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descrizione: Una dimostrazione stile "hello world" dell'utilizzo più semplice della libreria.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descrizione: Una dimostrazione completa che mostra la maggior parte delle funzionalità fornite dalla libreria.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descrizione: Test del motore TTS coqui locale.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Traduzioni in tempo reale in sei lingue diverse.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Interfaccia utente vocale attivata da parola chiave per l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dipendenze: Esegui pip install openai keyboard realtimestt.
      • +
      • Descrizione: Scegli il motore TTS e la voce prima di iniziare la conversazione con l'IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Un talkbot base in 20 righe di codice.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Semplice dimostrazione di come integrare la libreria con i modelli linguistici di grandi dimensioni (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Mostra i callback e ti permette di verificare i tempi di latenza in un ambiente applicativo reale.
      • +
      +
    • +
    +

    Pausa, Ripresa e Stop

    +

    Metti in pausa lo stream audio:

    +
    stream.pause()
    +
    +

    Riprendi uno stream in pausa:

    +
    stream.resume()
    +
    +

    Ferma immediatamente lo stream:

    +
    stream.stop()
    +
    +

    Requisiti Spiegati

    +
      +
    • Versione Python:
    • +
    • Richiesto: Python >= 3.9, < 3.13
    • +
    • +

      Motivo: La libreria dipende dalla libreria GitHub "TTS" di coqui, che richiede versioni Python in questo intervallo.

      +
    • +
    • +

      PyAudio: per creare uno stream audio di output

      +
    • +
    • +

      stream2sentence: per dividere il flusso di testo in ingresso in frasi

      +
    • +
    • +

      pyttsx3: Motore di conversione text-to-speech di sistema

      +
    • +
    • +

      pydub: per convertire i formati dei chunk audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motore di conversione text-to-speech di Azure

      +
    • +
    • +

      elevenlabs: Motore di conversione text-to-speech di Elevenlabs

      +
    • +
    • +

      coqui-TTS: Libreria text-to-speech XTTS di Coqui per TTS neurale locale di alta qualità

      +
    • +
    +

    Un ringraziamento speciale a Idiap Research Institute per il mantenimento di un fork di coqui tts.

    +
      +
    • +

      openai: per interagire con l'API TTS di OpenAI

      +
    • +
    • +

      gtts: Conversione text-to-speech di Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ja/api/index.html b/hi/ja/api/index.html new file mode 100755 index 0000000..82212d5 --- /dev/null +++ b/hi/ja/api/index.html @@ -0,0 +1,2814 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    日本語

    + +

    設定

    +

    TextToAudioStreamの初期化パラメータ

    +

    TextToAudioStreamクラスを初期化する際、その動作をカスタマイズするための様々なオプションがあります。利用可能なパラメータは以下の通りです:

    +

    engine (BaseEngine)

    +
      +
    • : BaseEngine
    • +
    • 必須: はい
    • +
    • 説明: テキストから音声への合成を担当する基盤エンジンです。音声合成を有効にするには、BaseEngineまたはそのサブクラスのインスタンスを提供する必要があります。
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが開始されたときにトリガーされるオプションのコールバック関数です。セットアップやログ記録に使用できます。
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが終了したときに実行されるオプションのコールバック関数です。クリーンアップタスクやログ記録に使用できます。
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが開始されたときに呼び出されるオプションのコールバック関数です。UIの更新やイベントログに役立ちます。
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが停止したときに呼び出されるオプションのコールバック関数です。リソースのクリーンアップや後処理タスクに最適です。
    • +
    +

    on_character (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 一文字が処理されるたびに呼び出されるオプションのコールバック関数です。
    • +
    +

    output_device_index (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: None
    • +
    • 説明: 使用する出力デバイスのインデックスを指定します。Noneの場合はデフォルトデバイスを使用します。
    • +
    +

    tokenizer (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: nltk
    • +
    • 説明: 文分割に使用するトークナイザー(現在は"nltk"と"stanza"がサポートされています)。
    • +
    +

    language (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: en
    • +
    • 説明: 文分割に使用する言語。
    • +
    +

    muted (bool)

    +
      +
    • : 真偽値
    • +
    • 必須: いいえ
    • +
    • デフォルト値: False
    • +
    • 説明: グローバルなミュートパラメータ。Trueの場合、pyAudioストリームは開かれません。ローカルスピーカーを介した音声再生を無効にし(ファイルへの合成や音声チャンクの処理を行う場合)、playパラメータのミュート設定を上書きします。
    • +
    +

    level (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: logging.WARNING
    • +
    • 説明: 内部ロガーのログレベルを設定します。Pythonの組み込みloggingモジュールの任意の整数定数を使用できます。
    • +
    +

    使用例:

    +
    engine = YourEngine()  # あなたのエンジンで置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +```python
    +engine = YourEngine()  # あなたのエンジンに置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    メソッド

    +

    playplay_async

    +

    これらのメソッドはテキストから音声への合成と音声ストリームの再生を担当します。playはブロッキング関数である一方、play_asyncは別のスレッドで実行され、他の操作を続行できるという違いがあります。

    +
    パラメータ:
    +
    fast_sentence_fragment (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueに設定すると、文章の断片をより速く生成して再生することを優先します。レイテンシーが重要なアプリケーションに有用です。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、最初の文だけでなく、すべての文に対して高速な文章断片処理を適用します。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、単一の文章断片ではなく、複数の文章断片を生成することができます。
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • デフォルト値: 0.0
    • +
    • +

      説明: 音声再生の滑らかさと連続性に影響を与えるバッファリングのしきい値を秒単位で指定します。

      +
    • +
    • +

      動作原理: 新しい文を合成する前に、システムはバッファにbuffer_threshold_secondsで指定された時間以上の音声材料が残っているかチェックします。残っている場合、テキストジェネレータから別の文を取得します。これは、バッファに残っている音声の時間枠内で新しい文を取得して合成できると仮定しています。このプロセスにより、テキスト音声変換エンジンがより良い合成のためのコンテキストを持つことができ、ユーザー体験を向上させます。

      +
    • +
    +

    より高い値を設定すると、より多くの音声がプリバッファされ、再生中の無音や隙間が発生する可能性が減少します。途切れや一時停止が発生する場合は、この値を増やすことを検討してください。

    +
    minimum_sentence_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 合成する文として扱う文字列の最小文字数を設定します。これはテキストチャンクの処理と再生方法に影響します。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 最初の文章断片を生成する前に必要な最小文字数です。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: 有効にすると、音声に合成されるテキストチャンクをログに記録します。監査やデバッグに役立ちます。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueの場合、処理前に生成されたテキストをリセットします。
    • +
    +
    output_wavfile (str)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 設定すると、指定されたWAVファイルに音声を保存します。
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成された後に呼び出されるコールバック関数です。
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成される前に呼び出されるコールバック関数です。
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の音声チャンクが準備できたときに呼び出されるコールバック関数です。
    • +
    +
    tokenizer (str)
    +
      +
    • デフォルト値: "nltk"
    • +
    • 説明: 文分割に使用するトークナイザーです。現在は"nltk"と"stanza"をサポートしています。
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 入力テキストから文を分割するカスタム関数です。nltkやstanzaに満足できない場合、独自の軽量トークナイザーを提供できます。テキストを文字列として受け取り、分割された文を文字列のリストとして返す必要があります。
    • +
    +
    language (str)
    +
      +
    • デフォルト値: "en"
    • +
    • 説明: 文分割に使用する言語です。
    • +
    +
    context_size (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界検出のために使用される文字数です。より大きなコンテキストは文境界の検出精度を向上させます。
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界を検出する際の先読みのための追加のコンテキストサイズです。
    • +
    +
    muted (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueの場合、ローカルスピーカーを介した音声再生を無効にします。ファイルに合成したり、音声チャンクを再生せずに処理したりする場合に有用です。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • デフォルト値: ".?!;:,\n…)]}。-"
    • +
    • 説明: 文の区切り文字として扱われる文字の文字列です。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • デフォルト値: 15
    • +
    • 説明: 最初の文章断片を生成する必要がある単語数です。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ja/contributing/index.html b/hi/ja/contributing/index.html new file mode 100755 index 0000000..b7bcd11 --- /dev/null +++ b/hi/ja/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTSへの貢献

    +

    RealtimeTTSへの貢献を歓迎します! ここにあなたが貢献できるいくつかの方法があります:

    +
      +
    1. +

      バグの報告: バグを見つけた場合は、GitHubリポジトリにイシューを開いてください。

      +
    2. +
    3. +

      改善提案: 新機能や改善のアイデアはありますか? ぜひお聞かせください! 改善提案のために問題を開いてください。

      +
    4. +
    5. +

      コードの貢献: 新しい機能を追加したり、バグを修正したりしたいですか? すごい! これらの手順に従ってください。

      +
    6. +
    7. リポジトリをフォークする
    8. +
    9. 機能のための新しいブランチを作成する
    10. +
    11. 変更を加える
    12. +
    13. +

      変更内容を明確に説明したプルリクエストを提出してください

      +
    14. +
    15. +

      ドキュメント: タイポを修正したり、例を追加したり、わかりにくい部分を明確にすることで、私たちのドキュメントを改善する手助けをしてください。

      +
    16. +
    17. +

      新しいエンジンの追加: 新しいTTSエンジンのサポートを追加したい場合は、まず実装について議論するためにイシューを開いてください。

      +
    18. +
    +

    RealtimeTTSをより良くするために協力していただきありがとうございます!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ja/faq/index.html b/hi/ja/faq/index.html new file mode 100755 index 0000000..92e8202 --- /dev/null +++ b/hi/ja/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    よくある質問

    +

    RealtimeTTSに関するよくある質問の回答については、GitHubのFAQページをご覧ください。

    +

    このページでは、次のようなさまざまなトピックを取り上げています。

    +
      +
    • 異なるTTSエンジンの使用
    • +
    • 多言語テキストの取り扱い
    • +
    • パフォーマンスの最適化
    • +
    • 一般的な問題のトラブルシューティング
    • +
    +

    詳細な情報については、上記のリンクをご覧ください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ja/index.html b/hi/ja/index.html new file mode 100755 index 0000000..bb1ec8b --- /dev/null +++ b/hi/ja/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    リアルタイムTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    リアルタイムアプリケーション向けの使いやすく、低遅延のテキスト読み上げライブラリ

    +

    プロジェクトについて

    +

    RealtimeTTSは、リアルタイムアプリケーション向けに設計された最先端のテキスト読み上げ(TTS)ライブラリです。 それは、テキストストリームを迅速に高品質な音声出力に変換する能力において際立っています。

    +

    主な特徴

    +
      +
    • 低遅延: ほぼ瞬時にテキストを音声に変換し、LLM出力と互換性があります
    • +
    • 高品質な音声: 明瞭で自然な音声を生成します
    • +
    • 複数のTTSエンジンサポート: OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS、System TTSをサポートします
    • +
    • 多言語対応
    • +
    • 堅牢で信頼性が高い: フォールバックメカニズムを通じて継続的な運用を保証し、障害が発生した場合には代替エンジンに切り替えて、一貫したパフォーマンスと信頼性を確保します。
    • +
    +

    インストール手順、使用例、およびAPIリファレンスについては、サイドバーを使用してドキュメントを参照してください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ja/installation/index.html b/hi/ja/installation/index.html new file mode 100755 index 0000000..0f9ef04 --- /dev/null +++ b/hi/ja/installation/index.html @@ -0,0 +1,2155 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    + +
    + + + +
    +
    + + + + +

    日本語

    + +
    +

    注意: pip install realtimetts での基本インストールは推奨されなくなりました。代わりに pip install realtimetts[all] を使用してください。

    +
    +

    RealtimeTTSライブラリは、あなたのユースケースに応じたさまざまな依存関係のインストールオプションを提供します。 ニーズに応じてRealtimeTTSをインストールする方法はいくつかあります:

    +

    フルインストール

    +

    すべてのTTSエンジンに対応したRealtimeTTSをインストールするには:

    +
    pip install -U realtimetts[all]
    +
    +

    カスタムインストール

    +

    RealtimeTTSは、最小限のライブラリインストールでカスタムインストールを可能にします。 こちらが利用可能なオプションです。 +- すべて: すべてのエンジンがサポートされた完全なインストール。 +- システム: システム固有のTTS機能を含む (e.g., pyttsx3). +- azure: Azure Cognitive Services Speechサポートを追加します。 +- elevenlabs: ElevenLabs APIとの統合が含まれています。 +- openai: OpenAIの音声サービス用。 +- gtts: Google テキスト読み上げサポート。 +- coqui: Coqui TTSエンジンをインストールします。 +- minimal: エンジンなしで基本要件のみをインストール (only needed if you want to develop an own engine)

    +

    ローカルの神経系Coqui TTSでのみRealtimeTTSをインストールしたい場合は、次のようにしてください:

    +
    pip install realtimetts[coqui]
    +
    +

    例えば、Azure Cognitive Services Speech、ElevenLabs、OpenAIのサポートのみでRealtimeTTSをインストールしたい場合:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    仮想環境のインストール

    +

    仮想環境内で完全なインストールを行いたい方は、以下の手順に従ってください。

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.
    +```バット
    +python.exe -m pip install --pipをアップグレード
    +pip install -U realtimetts[all]
    +テキストを翻訳してください: ```
    +
    +[CUDAインストール](#cuda-installation)に関する詳細情報。
    +
    +## エンジン要件
    +
    +RealtimeTTSがサポートする異なるエンジンには、それぞれ独自の要件があります。 選択したエンジンに基づいてこれらの要件を満たすようにしてください。
    +
    +### システムエンジン
    +`SystemEngine`は、システムに内蔵されたTTS機能とそのまま使えます。 追加の設定は必要ありません。
    +
    +### GTTSEngine
    +`GTTSEngine`は、Google翻訳のテキスト読み上げAPIを使用して、すぐに使える状態で動作します。 追加の設定は必要ありません。
    +
    +### OpenAIエンジン
    +`OpenAIEngine`を使用するには:
    +- 環境変数 OPENAI_API_KEY を設定する
    +- ffmpeg をインストールする([CUDA インストール](#cuda-installation)の3番目のポイントを参照)
    +
    +### AzureEngine
    +`AzureEngine`を使用するには、次のものが必要です:
    +- Microsoft Azure Text-to-Speech APIキー(AzureEngineコンストラクタのパラメータ「speech_key」または環境変数AZURE_SPEECH_KEYで提供されます)
    +- マイクロソフトAzureサービスリージョン。
    +
    +`AzureEngine`を初期化する際に、これらの資格情報が利用可能で正しく設定されていることを確認してください。
    +
    +### ElevenlabsEngine
    +`ElevenlabsEngine`には、次のものが必要です:
    +- Elevenlabs APIキー(ElevenlabsEngineコンストラクタのパラメータ「api_key」または環境変数ELEVENLABS_API_KEYで提供されます)
    +- システムに`mpv`がインストールされています (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).
    +
    +  🔹 **`mpv`のインストール:**
    +  - **macOS**:
    +    ```plaintext
    +brew install mpv
    +
    +
      +
    • LinuxおよびWindows: インストール手順についてはmpv.ioをご覧ください。
    • +
    +

    CoquiEngine

    +

    高品質でローカルなニューラルTTSをボイスクローン機能付きで提供します。

    +

    まず、ニューラルTTSモデルをダウンロードします。 ほとんどの場合、GPU合成を使用すればリアルタイムで十分な速度になります。 約4〜5GBのVRAMが必要です。

    +
      +
    • 声をクローンするには、ソース音声を含むWAVファイルのファイル名を「voice」パラメータとしてCoquiEngineコンストラクタに提出してください。
    • +
    • 声のクローンは、短い(約5〜30秒)サンプルを含む22050 Hzモノ16ビットWAVファイルで最も効果的です。
    • +
    +

    ほとんどのシステムでは、リアルタイムで十分な速度を出すためにGPUサポートが必要です。さもなければ、カクつきが発生します。

    +

    CUDAのインストール

    +

    これらの手順は、より良いパフォーマンスを必要とし、互換性のあるNVIDIA GPUを持っている方に推奨されます。

    +
    +

    注意: お使いのNVIDIA GPUがCUDAをサポートしているか確認するには、公式CUDA GPUリストをご覧ください。

    +
    +

    CUDAをサポートするTorchを使用するには、次の手順に従ってください。

    +
    +

    注意: 新しいPyTorchのインストールでは、かもしれない(未確認)がToolkit(およびおそらくcuDNN)のインストールを必要としないかもしれません。

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkitをインストールする: + 例えば、Toolkit 12.Xをインストールするには、

      +
        +
      • NVIDIA CUDA Downloadsを訪れてください。
      • +
      • オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。
      • +
      +

      または、Toolkit 11.8をインストールするには、 +- NVIDIA CUDA Toolkit Archiveをご覧ください。 +- オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    2. +
    3. +

      NVIDIA cuDNNをインストールする:

      +

      例えば、CUDA 11.x用のcuDNN 8.7.0をインストールするには、次の手順を行ってください。 +- NVIDIA cuDNNアーカイブを訪問してください。 +「Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x」をクリックしてください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    4. +
    5. +

      ffmpegをインストールする:

      +

      ffmpegウェブサイトからお使いのOS用のインストーラーをダウンロードできます。

      +

      またはパッケージマネージャーを使用してください:

      +
        +
      • +

        UbuntuまたはDebianの場合: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linuxで: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrewを使用してMacOSで (https://brew.sh/): + ```plaintext +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolateyを使用してWindowsで** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **Scoopを使用してWindowsで** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    scoop install ffmpeg
    +
    +
    
    +4. **CUDAサポート付きのPyTorchをインストールする**:
    +
    +    CUDAでGPUサポートを有効にするためにPyTorchのインストールをアップグレードするには、特定のCUDAバージョンに基づいてこれらの指示に従ってください。 これは、CUDA機能を使用してRealtimeSTTのパフォーマンスを向上させたい場合に役立ちます。
    +
    +    - **CUDA 11.8の場合:**
    +
    +        PyTorchとTorchaudioをCUDA 11.8に対応させるために、次のコマンドを使用してください。
    +
    +        ```plaintext
    +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        テキストを翻訳する: ```
    +
    +- **CUDA 12.Xの場合:**
    +
    +
    +    PyTorchとTorchaudioをCUDA 12.Xに対応させるために、次のコマンドを実行してください。
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +テキストを翻訳する:

    +
    `2.3.1` をあなたのシステムと要件に合ったPyTorchのバージョンに置き換えてください。
    +
    +
      +
    1. 互換性の問題を解決するための修正: + ライブラリの互換性の問題が発生した場合は、これらのライブラリを固定バージョンに設定してみてください。
    2. +
    +

    テキストを翻訳する: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ja/usage/index.html b/hi/ja/usage/index.html new file mode 100755 index 0000000..9b802fa --- /dev/null +++ b/hi/ja/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    使用

    +

    クイックスタート

    +

    基本的な使用例は次のとおりです。

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # あなたのTTSエンジンに置き換えてください +ストリーム = TextToAudioStream(engine) +stream.feed("こんにちは、世界!") 今日はどうですか? +stream.play_async()

    +

    フィードテキスト

    +

    個別の文字列を入力できます:

    +
    stream.feed("こんにちは、これは文です。")
    +
    +

    または、リアルタイムストリーミングのためにジェネレーターやキャラクターイテレーターを使用することもできます。

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```チャット完了。作成(
    +        モデル="gpt-3.5-turbo",
    +        メッセージ=[{"役割": "ユーザー", "内容": プロンプト}],
    +        ストリーム=True
    +    ):
    +        もし (text_chunk := chunk["choices"]テキストを翻訳してください。["デルタ"].get("content")) は None ではない:
    +            テキストチャンクを生成
    +
    +テキストストリーム = 書き込み("A three-sentence relaxing speech.")
    +
    +ストリームにテキストストリームをフィードする
    +
    +```python
    +char_iterator = iter("文字を1文字ずつストリーミングします。")
    +stream.feed(char_iterator)
    +
    +

    再生

    +

    非同期で:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同時に:

    +
    stream.play()
    +
    +

    ライブラリのテスト

    +

    テストサブディレクトリには、RealtimeTTSライブラリの機能を評価し理解するための一連のスクリプトが含まれています。

    +

    ほとんどのテストはまだ「古い」OpenAI API(<1.0.0)に依存していることに注意してください。 新しいOpenAI APIの使用方法はopenai_1.0_test.pyで示されています。

    +
      +
    • +

      simple_test.py

      +
        +
      • 説明: ライブラリの最も簡単な使い方を示す「ハローワールド」スタイルのデモ。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 説明: ライブラリが提供するほとんどの機能を紹介する包括的なデモ。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 説明: ローカルのcoqui TTSエンジンのテスト。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 6つの異なる言語へのリアルタイム翻訳。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依存関係: pip install openai realtimestt を実行してください。
      • +
      • 説明: ウェイクワードがアクティブになり、OpenAI APIへの音声ベースのユーザーインターフェース。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依存関係: pip install openai keyboard realtimesttを実行してください。
      • +
      • 説明: AI会話を始める前に、TTSエンジンと声を選択してください。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 20行のコードで作る基本的なトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: ライブラリを大規模言語モデルに統合する簡単なデモ (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: コールバックを紹介し、実際のアプリケーション環境でレイテンシー時間を確認できるようにします。
      • +
      +
    • +
    +

    一時停止、再開、停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止中のストリームを再開する:

    +
    stream.resume()
    +
    +

    すぐに配信を停止してください。

    +
    stream.stop()
    +
    +

    要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必要条件: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリは、coquiのGitHubライブラリ「TTS」に依存しており、これにはこの範囲のPythonバージョンが必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するために

      +
    • +
    • +

      stream2sentence: 入力されたテキストストリームを文に分割する

      +
    • +
    • +

      pyttsx3: システム音声合成エンジン

      +
    • +
    • +

      pydub: オーディオチャンクのフォーマットを変換するために

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure テキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabs テキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTSのためのCoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap Research Institutecoqui ttsのフォークを維持していることに感謝します。

    +
      +
    • +

      openai: OpenAIのTTS APIと対話するために

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ko/api/index.html b/hi/ko/api/index.html new file mode 100755 index 0000000..8809cb7 --- /dev/null +++ b/hi/ko/api/index.html @@ -0,0 +1,2792 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    한국어

    + +

    구성

    +

    TextToAudioStream 초기화 매개변수

    +

    TextToAudioStream 클래스를 초기화할 때, 그 동작을 사용자 정의할 수 있는 다양한 옵션이 있습니다. 사용 가능한 매개변수는 다음과 같습니다:

    +

    engine (BaseEngine)

    +
      +
    • 유형: BaseEngine
    • +
    • 필수: 네 텍스트를 오디오로 변환하는 데 책임이 있는 기본 엔진. 오디오 합성을 활성화하려면 BaseEngine 또는 그 하위 클래스의 인스턴스를 제공해야 합니다.
    • +
    +

    on_text_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 시작될 때 호출됩니다. 필요한 설정이나 로깅에 사용하세요.
    • +
    +

    on_text_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 끝날 때 활성화됩니다. 이것을 정리 작업이나 로깅에 사용할 수 있습니다.
    • +
    +

    on_audio_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 시작될 때 호출됩니다. UI 업데이트나 이벤트 로깅에 유용합니다.
    • +
    +

    on_audio_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 중지될 때 호출됩니다. 리소스 정리나 후처리 작업에 적합합니다.
    • +
    +

    on_character (callable)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 단일 문자가 처리될 때 호출됩니다.
    • +
    +

    output_device_index (int)

    +
      +
    • 유형: 정수
    • +
    • 필수: 아니요 사용할 출력 장치 인덱스를 지정합니다. 아무도 기본 장치를 사용하지 않습니다.
    • +
    +

    tokenizer (string)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요
    • +
    • 기본값: nltk
    • +
    • 설명: 문장 분할에 사용할 토크나이저 (currently "nltk" and "stanza" are supported).
    • +
    +

    language (문자열)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요 문장 분할에 사용할 언어.
    • +
    +

    muted (bool)

    +
      +
    • 유형: Bool
    • +
    • 필수: 아니오
    • +
    • 기본값: False
    • +
    • 설명: 전역 음소거 매개변수. 참이면, pyAudio 스트림이 열리지 않습니다. 로컬 스피커를 통한 오디오 재생을 비활성화합니다 (파일로 합성하거나 오디오 청크를 처리하려는 경우) 및 재생 매개변수의 음소거 설정을 무시합니다.
    • +
    +

    level (int)

    +
      +
    • Type: 정수
    • +
    • Required: 아니요
    • +
    • 기본값: logging.WARNING
    • +
    • 설명: 내부 로거의 로깅 수준을 설정합니다. 이는 Python의 내장 logging 모듈에서 제공하는 정수 상수일 수 있습니다.
    • +
    +

    예시 사용법:

    +
    engine = YourEngine()  # 엔진을 당신의 엔진으로 대체하세요
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    방법

    +

    playplay_async

    +

    이 방법들은 텍스트-오디오 합성을 실행하고 오디오 스트림을 재생하는 역할을 합니다. 차이점은 play가 블로킹 함수인 반면, play_async는 별도의 스레드에서 실행되어 다른 작업이 진행될 수 있다는 것입니다.

    +
    매개변수:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: True로 설정하면, 이 방법은 속도를 우선시하여 문장 조각을 더 빨리 생성하고 재생합니다. 이는 지연 시간이 중요한 애플리케이션에 유용합니다.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 첫 번째 문장뿐만 아니라 모든 문장에 대해 빠른 문장 조각 처리를 적용합니다.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 단일 문장 조각 대신 여러 문장 조각을 생성할 수 있습니다.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • 기본값: 0.0
    • +
    • +

      설명: 버퍼링 임계값을 초 단위로 지정하며, 이는 오디오 재생의 부드러움과 연속성에 영향을 미칩니다.

      +
    • +
    • +

      작동 방식: 새로운 문장을 합성하기 전에 시스템은 버퍼에 남아 있는 오디오 자료가 buffer_threshold_seconds로 지정된 시간보다 더 많은지 확인합니다. 그렇다면, 텍스트 생성기에서 또 다른 문장을 가져오는데, 이는 버퍼에 남아 있는 오디오의 시간 창 내에서 이 새로운 문장을 가져오고 합성할 수 있다고 가정합니다. 이 과정은 텍스트 음성 변환 엔진이 더 나은 합성을 위해 더 많은 맥락을 갖도록 하여 사용자 경험을 향상시킵니다.

      +
    • +
    +

    더 높은 값은 더 많은 미리 버퍼링된 오디오를 보장하여 재생 중 침묵이나 간격이 발생할 가능성을 줄여줍니다. 중단이나 일시 정지가 발생하면 이 값을 늘려보세요.

    +
    minimum_sentence_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 문자열을 합성할 문장으로 간주하기 위한 최소 문자 길이를 설정합니다. 이것은 텍스트 청크가 처리되고 재생되는 방식에 영향을 미칩니다.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 양보하기 전에 첫 번째 문장 조각에 필요한 최소 문자 수.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 활성화되면, 텍스트 조각이 오디오로 합성될 때 로그를 기록합니다. 감사 및 디버깅에 유용합니다.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: 참이면, 처리하기 전에 생성된 텍스트를 재설정하세요.
    • +
    +
    output_wavfile (str)
    +
      +
    • 기본값: None
    • +
    • 설명: 설정된 경우, 오디오를 지정된 WAV 파일로 저장합니다.
    • +
    +
    on_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 문장 조각이 합성된 후 호출되는 콜백 함수.
    • +
    +
    before_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: 없음
    • +
    • 설명: 단일 문장 조각이 합성되기 전에 호출되는 콜백 함수.
    • +
    +
    on_audio_chunk (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 오디오 청크가 준비되면 호출되는 콜백 함수.
    • +
    +
    tokenizer (str)
    +
      +
    • 기본값: "nltk"
    • +
    • 설명: 문장 분리를 위한 토크나이저. 현재 "nltk"와 "stanza"를 지원합니다.
    • +
    +
    tokenize_sentences (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 입력 텍스트에서 문장을 토큰화하는 사용자 정의 함수. nltk와 stanza에 만족하지 않으면 자신만의 경량 토크나이저를 제공할 수 있습니다. 텍스트를 문자열로 받아서 문장으로 나눈 후 문자열 목록으로 반환해야 합니다.
    • +
    +
    language (str)
    +
      +
    • 기본값: "en"
    • +
    • 설명: 문장 분할에 사용할 언어.
    • +
    +
    context_size (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계 감지를 위한 컨텍스트를 설정하는 데 사용되는 문자 수. 더 넓은 맥락이 문장 경계를 감지하는 정확성을 높입니다.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계를 감지할 때 미리 보기 위한 추가 컨텍스트 크기.
    • +
    +
    muted (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 참이면, 로컬 스피커를 통한 오디오 재생을 비활성화합니다. 파일로 합성하거나 오디오 청크를 재생하지 않고 처리할 때 유용합니다.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 기본값: ".?!;:,\n…)]}。-" 문장 구분자로 간주되는 문자 문자열.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 기본값: 15
    • +
    • 설명: 첫 번째 문장 조각이 강제로 생성되는 단어 수.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ko/contributing/index.html b/hi/ko/contributing/index.html new file mode 100755 index 0000000..658fea5 --- /dev/null +++ b/hi/ko/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS에 기여하기

    +

    RealtimeTTS에 기여해 주시면 환영합니다! 여기 당신이 기여할 수 있는 몇 가지 방법이 있습니다:

    +
      +
    1. +

      버그 신고: 버그를 발견하셨다면, 저희 GitHub 저장소에 이슈를 열어주세요.

      +
    2. +
    3. +

      개선 사항 제안하기: 새로운 기능이나 개선 사항에 대한 아이디어가 있나요? 우리는 그것들을 듣고 싶어요! 개선 사항을 제안하기 위해 이슈를 열어주세요.

      +
    4. +
    5. +

      코드 기여: 새로운 기능을 추가하거나 버그를 수정하고 싶으신가요? 대단해! 다음 단계를 따라주세요:

      +
    6. +
    7. 저장소를 포크하세요
    8. +
    9. 기능을 위한 새로운 브랜치를 만드세요
    10. +
    11. +

      변경 사항을 적용하세요 + 변경 사항에 대한 명확한 설명과 함께 풀 리퀘스트를 제출하세요.

      +
    12. +
    13. +

      문서화: 오타를 수정하거나 예제를 추가하거나 혼란스러운 부분을 명확히 하여 문서화를 개선하는 데 도움을 주세요.

      +
    14. +
    15. +

      새 엔진 추가하기: 새로운 TTS 엔진을 추가하고 싶다면, 먼저 구현에 대해 논의하기 위해 이슈를 열어주세요.

      +
    16. +
    +

    RealtimeTTS를 더 좋게 만드는 데 도움을 주셔서 감사합니다!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ko/faq/index.html b/hi/ko/faq/index.html new file mode 100755 index 0000000..0c74858 --- /dev/null +++ b/hi/ko/faq/index.html @@ -0,0 +1,1856 @@ + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    자주 묻는 질문

    +

    RealtimeTTS에 대한 자주 묻는 질문에 대한 답변은 GitHub의 FAQ 페이지를 참조해 주세요.

    +

    이 페이지는 다음과 같은 다양한 주제를 다룹니다:

    +
      +
    • 다양한 TTS 엔진의 사용
    • +
    • 다국어 텍스트 처리
    • +
    • 성능 최적화
    • +
    • 일반적인 문제 해결
    • +
    +

    자세한 정보는 위의 링크를 방문해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ko/index.html b/hi/ko/index.html new file mode 100755 index 0000000..b170507 --- /dev/null +++ b/hi/ko/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    실시간TTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    실시간 애플리케이션을 위한 사용하기 쉽고 저지연 텍스트 음성 변환 라이브러리

    +

    프로젝트 소개

    +

    RealtimeTTS는 실시간 애플리케이션을 위해 설계된 최첨단 텍스트 음성 변환(TTS) 라이브러리입니다. 텍스트 스트림을 빠르게 고품질의 오디오 출력으로 변환하는 능력에서 두드러집니다.

    +

    주요 특징

    +
      +
    • 저지연: 거의 즉각적인 텍스트 음성 변환, LLM 출력과 호환 가능
    • +
    • 고품질 오디오: 명확하고 자연스러운 음성을 생성합니다.
    • +
    • 다양한 TTS 엔진 지원: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS 및 System TTS를 지원합니다.
    • +
    • 다국어 지원
    • +
    • 견고하고 신뢰할 수 있음: 백업 메커니즘을 통해 지속적인 운영을 보장하며, 중단 시 대체 엔진으로 전환하여 일관된 성능과 신뢰성을 보장합니다.
    • +
    +

    설치 지침, 사용 예제 및 API 참조를 보려면 사이드바를 사용하여 문서를 탐색해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ko/installation/index.html b/hi/ko/installation/index.html new file mode 100755 index 0000000..946cc6b --- /dev/null +++ b/hi/ko/installation/index.html @@ -0,0 +1,2267 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    한국어

    + +
    +

    참고: 이제 pip install realtimetts로 기본 설치하는 것은 권장되지 않으며, 대신 pip install realtimetts[all]를 사용하세요.

    +
    +

    RealtimeTTS 라이브러리는 사용 사례에 맞는 다양한 종속성 설치 옵션을 제공합니다. 여기 당신의 필요에 따라 RealtimeTTS를 설치할 수 있는 다양한 방법이 있습니다:

    +

    전체 설치

    +

    모든 TTS 엔진을 지원하는 RealtimeTTS를 설치하려면:

    +
    pip install -U realtimetts[all]
    +
    +

    맞춤 설치

    +

    RealtimeTTS는 최소한의 라이브러리 설치로 맞춤 설치를 허용합니다. 다음은 이용 가능한 옵션입니다: +- 모두: 모든 엔진이 지원되는 전체 설치. +- 시스템: 시스템별 TTS 기능 포함 (e.g., pyttsx3). +- azure: Azure Cognitive Services Speech 지원을 추가합니다. +- elevenlabs: ElevenLabs API와의 통합을 포함합니다. +- openai: OpenAI 음성 서비스용. +- gtts: 구글 텍스트 음성 변환 지원. +- coqui: Coqui TTS 엔진을 설치합니다. +- 최소: 엔진 없이 기본 요구 사항만 설치 (only needed if you want to develop an own engine)

    +

    로컬 신경망 Coqui TTS 사용을 위해 RealtimeTTS만 설치하고 싶다고 가정해 보세요, 그러면 다음을 사용해야 합니다:

    +
    pip install realtimetts[coqui]
    +
    +

    예를 들어, Azure Cognitive Services Speech, ElevenLabs, OpenAI 지원만으로 RealtimeTTS를 설치하고 싶다면:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    가상 환경 설치

    +

    가상 환경 내에서 전체 설치를 수행하려는 분들은 다음 단계를 따르세요:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA 설치에 대한 자세한 정보.

    +

    엔진 요구 사항

    +

    RealtimeTTS에서 지원하는 다양한 엔진은 고유한 요구 사항을 가지고 있습니다. 선택한 엔진에 따라 이러한 요구 사항을 충족하도록 하십시오.

    +

    시스템엔진

    +

    SystemEngine은 시스템에 내장된 TTS 기능과 함께 즉시 사용할 수 있습니다. 추가 설정이 필요하지 않습니다.

    +

    GTTSEngine

    +

    GTTSEngine은 Google Translate의 텍스트 음성 변환 API를 사용하여 즉시 작동합니다. 추가 설정이 필요 없습니다.

    +

    오픈AI엔진

    +

    OpenAIEngine을 사용하려면: +- 환경 변수 OPENAI_API_KEY 설정 +- ffmpeg 설치 (참고: CUDA 설치 3번 항목)

    +

    AzureEngine

    +

    AzureEngine을 사용하려면 다음이 필요합니다: +- Microsoft Azure Text-to-Speech API 키 (AzureEngine 생성자 매개변수 "speech_key" 또는 환경 변수 AZURE_SPEECH_KEY를 통해 제공됨) +- 마이크로소프트 애저 서비스 지역.

    +

    AzureEngine을 초기화할 때 이러한 자격 증명이 준비되어 있고 올바르게 구성되어 있는지 확인하세요.

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine을 사용하려면 다음이 필요합니다: +- Elevenlabs API 키 (ElevenlabsEngine 생성자 매개변수 "api_key"를 통해 제공되거나 환경 변수 ELEVENLABS_API_KEY에 설정됨) +- 시스템에 mpv가 설치되어 있습니다. (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 mpv 설치하기: + - macOS: + plaintext + brew install mpv

    +
      +
    • 리눅스와 윈도우: 설치 지침은 mpv.io를 방문하세요.
    • +
    +

    코키엔진

    +

    고품질의 로컬 신경 TTS를 음성 클로닝과 함께 제공합니다.

    +

    먼저 신경 TTS 모델을 다운로드합니다. 대부분의 경우 GPU 합성을 사용하면 실시간으로 충분히 빠를 것입니다. 약 4-5GB의 VRAM이 필요합니다.

    +
      +
    • 음성을 복제하려면 소스 음성이 포함된 WAV 파일의 파일 이름을 "voice" 매개변수로 CoquiEngine 생성자에게 제출하십시오.
    • +
    • 음성 복제는 22050 Hz 모노 16비트 WAV 파일에 짧은 (~5-30초) 샘플이 포함된 경우에 가장 잘 작동합니다.
    • +
    +

    대부분의 시스템에서는 실시간으로 충분히 빠르게 실행하기 위해 GPU 지원이 필요하며, 그렇지 않으면 끊김 현상이 발생할 것입니다.

    +

    CUDA 설치

    +

    이 단계들은 더 나은 성능을 요구하고 호환 가능한 NVIDIA GPU를 가진 분들에게 권장됩니다.

    +
    +

    참고: NVIDIA GPU가 CUDA를 지원하는지 확인하려면 공식 CUDA GPU 목록을 방문하세요.

    +
    +

    CUDA를 통해 지원되는 토치를 사용하려면 다음 단계를 따르세요:

    +
    +

    참고: 최신 pytorch 설치는 여기 (확인되지 않음)에서 Toolkit (및 아마도 cuDNN) 설치가 더 이상 필요하지 않을 수 있습니다.

    +
    +
      +
    1. +

      NVIDIA CUDA 툴킷 설치: + 예를 들어, Toolkit 12.X를 설치하려면

      +
        +
      • NVIDIA CUDA 다운로드를 방문하세요.
      • +
      • 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요.
      • +
      • 소프트웨어를 다운로드하고 설치하세요.
      • +
      +

      또는 Toolkit 11.8을 설치하려면, +- NVIDIA CUDA Toolkit 아카이브를 방문하세요. +- 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    2. +
    3. +

      NVIDIA cuDNN 설치:

      +

      예를 들어, CUDA 11.x에 cuDNN 8.7.0을 설치하려면 +- NVIDIA cuDNN 아카이브를 방문하세요. +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x"를 클릭하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    4. +
    5. +

      ffmpeg 설치:

      +

      ffmpeg 웹사이트에서 운영 체제에 맞는 설치 프로그램을 다운로드할 수 있습니다.

      +

      또는 패키지 관리자를 사용하세요:

      +
        +
      • +

        우분투나 데비안에서: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linux에서: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrew를 사용한 MacOS에서 (https://brew.sh/): + ```bash +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolatey를 사용한 Windows에서** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +        ```
    +
    +    - **Scoop을 사용하여 Windows에서** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```
    +        스쿱 설치 ffmpeg
    +
    +
      +
    1. +

      CUDA 지원으로 PyTorch 설치하기:

      +

      CUDA를 사용하여 GPU 지원을 활성화하려면, 특정 CUDA 버전에 따라 다음 지침을 따르세요. CUDA 기능으로 RealtimeSTT의 성능을 향상시키고자 한다면 유용합니다.

      +
        +
      • +

        CUDA 11.8의 경우:

        +

        PyTorch와 Torchaudio를 CUDA 11.8을 지원하도록 업데이트하려면 다음 명령어를 사용하세요:

        +

        ```bash +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      +
    2. +
    +
            텍스트를 번역할 내용: ```
    +
    +    - **CUDA 12.X의 경우:**
    +
    +
    +        PyTorch와 Torchaudio를 CUDA 12.X를 지원하도록 업데이트하려면 다음을 실행하세요:
    +
    +        ```bash
    +pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +
        텍스트를 번역할 내용: ```
    +
    +`2.3.1`을(를) 귀하의 시스템 및 요구 사항에 맞는 PyTorch 버전으로 교체하세요.
    +
    +
      +
    1. 호환성 문제를 해결하기 위한 수정: + 라이브러리 호환성 문제에 직면하면, 이 라이브러리들을 고정된 버전으로 설정해 보세요:
    2. +
    +

    텍스트를 번역할 내용: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/ko/usage/index.html b/hi/ko/usage/index.html new file mode 100755 index 0000000..9e1a675 --- /dev/null +++ b/hi/ko/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    사용 방법

    +

    빠른 시작

    +

    기본적인 사용 예는 다음과 같습니다:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +
    +engine = SystemEngine() # TTS 엔진을 지정
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    텍스트 피드

    +

    개별 문자열을 입력할 수 있습니다:

    +
    stream.feed("안녕하세요, 이것은 문장입니다.")
    +
    +

    실시간 스트리밍용 제너레이터나 문자 이터레이터를 피드하는 것도 가능합니다:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    재생

    +

    비동기 재생:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    동기 재생:

    +
    stream.play()
    +
    +

    라이브러리 테스트

    +

    test 서브디렉토리에는 RealtimeTTS 라이브러리의 기능을 평가하고 이해하기 위한 스크립트가 포함되어 있습니다.

    +

    오래된 OpenAI API (<1.0.0)에 의존하는 테스트가 많기 때문에, 새로운 OpenAI API의 사용 예는 openai_1.0_test.py에서 확인할 수 있습니다.

    +
      +
    • +

      simple_test.py

      +
        +
      • 설명: 라이브러리의 가장 간단한 사용법을 보여주는 "Hello World" 스타일의 데모.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 설명: 라이브러리의 대부분 기능을 포괄하는 종합적인 데모.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 설명: 로컬 Coqui TTS 엔진의 테스트.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하세요.
      • +
      • 설명: 6개의 다른 언어로 실시간 번역.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하십시오.
      • +
      • 설명: 시작 단어로 시작되는 음성 기반의 OpenAI API 인터페이스.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 의존성: pip install openai keyboard realtimestt를 실행하십시오.
      • +
      • 설명: TTS 엔진과 목소리를 선택하여 AI 대화를 시작하세요.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 의존성: pip install openai realtimestt 실행.
      • +
      • 説明: 20行のコードで作成されたシンプルなトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: ラージランゲージモデル(LLM)との統合の簡単なデモ。
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: コールバックを紹介し、実環境での待機時間をチェック可能。
      • +
      +
    • +
    +

    一時停止、再開 & 停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止したストリームを再開:

    +
    stream.resume()
    +
    +

    ストリームをすぐに停止:

    +
    stream.stop()
    +
    +

    必要要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必須: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリはCoquiのGitHubライブラリ「TTS」に依存しており、Pythonのこのバージョン範囲が必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するため

      +
    • +
    • +

      stream2sentence: 入力されるテキストストリームを文単位に分割するため

      +
    • +
    • +

      pyttsx3: システムテキスト読み上げエンジン

      +
    • +
    • +

      pydub: オーディオチャンクの形式変換用

      +
    • +
    • +

      azure-cognitiveservices-speech: Azureテキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabsテキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTS用CoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap研究所が管理するCoqui TTSのフォークに感謝。

    +
      +
    • +

      openai: OpenAIのTTS APIとのインタラクション用

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/usage/index.html b/hi/usage/index.html new file mode 100755 index 0000000..127f0ba --- /dev/null +++ b/hi/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    उपयोग

    +

    त्वरित प्रारंभ

    +

    यहाँ एक बुनियादी उदाहरण दिया गया है:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # अपनी TTS-इंजन के साथ इसे बदलें
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    टेक्स्ट इनपुट

    +

    आप व्यक्तिगत स्ट्रिंग्स इनपुट कर सकते हैं:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    या आप वास्तविक समय-स्ट्रीमिंग के लिए जनरेटर और कैरेक्टर-इटरेटर का उपयोग कर सकते हैं:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    प्लेबैक

    +

    असिंक्रोनस:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    सिंक्रोनस:

    +
    stream.play()
    +
    +

    लाइब्रेरी का परीक्षण

    +

    परीक्षण-सबडायरेक्टरी में विभिन्न स्क्रिप्ट्स शामिल हैं, जो आपको RealtimeTTS लाइब्रेरी की क्षमताओं को समझने और आकलन करने में मदद करती हैं।

    +

    ध्यान दें कि अधिकांश परीक्षण अभी भी "पुरानी" OpenAI API (<1.0.0) पर आधारित हैं। नई OpenAI API का उपयोग openai_1.0_test.py में प्रदर्शित किया गया है।

    +
      +
    • +

      simple_test.py

      +
        +
      • विवरण: सबसे आसान लाइब्रेरी उपयोग का एक "Hello World" जैसा प्रदर्शन।
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • विवरण: लाइब्रेरी की अधिकतम कार्यक्षमता का व्यापक प्रदर्शन।
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • विवरण: स्थानीय Coqui TTS-इंजन का परीक्षण।
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: वास्तविक समय में छह विभिन्न भाषाओं में अनुवाद।
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: एक्टिवेशन-वर्ड के माध्यम से और आवाज-आधारित इंटरफ़ेस के साथ OpenAI API का उपयोग।
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • आवश्यकताएँ: pip install openai keyboard realtimestt कमांड चलाएँ।
      • +
      • विवरण: AI बातचीत शुरू करने से पहले TTS-इंजन और आवाज का चयन।
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: 20 कोड लाइनों में एक साधारण टॉकबोट।
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: लाइब्रेरी की LLMs के साथ एकीकृत करने का सरल प्रदर्शन।
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: वास्तविक वातावरण में विलंब समय को मापने और प्रतिक्रिया को प्रदर्शित करता है।
      • +
      +
    • +
    +

    रुकना, पुनः आरंभ करना और रोकना

    +

    ऑडियो स्ट्रीम को रोकें:

    +
    stream.pause()
    +
    +

    रुकी हुई स्ट्रीम पुनः प्रारंभ करें:

    +
    stream.resume()
    +
    +

    स्ट्रीम तुरंत रोकें:

    +
    stream.stop()
    +
    +

    आवश्यकताओं का स्पष्टीकरण

    +
      +
    • Python संस्करण:
    • +
    • आवश्यक: Python >= 3.9, < 3.13
    • +
    • +

      कारण: लाइब्रेरी Coqui की GitHub लाइब्रेरी "TTS" पर निर्भर करती है, जो इस संस्करण सीमा का समर्थन करती है।

      +
    • +
    • +

      PyAudio: ऑडियो आउटपुट स्ट्रीम बनाने के लिए

      +
    • +
    • +

      stream2sentence: इनकमिंग टेक्स्ट स्ट्रीम को वाक्यों में विभाजित करने के लिए

      +
    • +
    • +

      pyttsx3: सिस्टम Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      pydub: ऑडियो चंक फॉर्मेट्स में कन्वर्शन के लिए

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      coqui-TTS: उच्च गुणवत्ता वाली स्थानीय न्यूरल TTS के लिए Coqui का XTTS Text-to-Speech लाइब्रेरी

      +
    • +
    +

    Idiap Research Institute को उनके Coqui TTS का Fork बनाए रखने के लिए धन्यवाद।

    +
      +
    • +

      openai: OpenAI TTS API के साथ बातचीत के लिए

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech कन्वर्शन

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/zh/api/index.html b/hi/zh/api/index.html new file mode 100755 index 0000000..108d89f --- /dev/null +++ b/hi/zh/api/index.html @@ -0,0 +1,2791 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +

    配置

    +

    TextToAudioStream 的初始化参数

    +

    初始化 TextToAudioStream 类时,有多种选项可自定义其行为。以下是可用参数:

    +

    engine (BaseEngine)

    +
      +
    • 类型**: 基础引擎
    • +
    • 必需**: 是
    • +
    • 描述***: 负责文本到音频合成的底层引擎。您必须提供一个 BaseEngine 或其子类的实例才能启用音频合成。
    • +
    +

    on_text_stream_start(可调用)

    +
      +
    • 类型**: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 这个可选的回调函数会在文本流开始时触发。可用于任何设置或日志记录。
    • +
    +

    on_text_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当文本流结束时,这个可选的回调函数将被激活。可用于清理任务或日志记录。
    • +
    +

    on_audio_stream_start(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流启动时,会调用这个可选的回调函数。可用于用户界面更新或事件记录。
    • +
    +

    on_audio_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流停止时,会调用这个可选的回调函数。是资源清理或后处理任务的理想选择。
    • +
    +

    on_character(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 处理单个字符时调用此可选回调函数。
    • +
    +

    output_device_index (int)

    +
      +
    • 类型***: 整数
    • +
    • 要求**: 无
    • +
    • 默认**: 无
    • +
    • 描述***: 指定要使用的输出设备索引。无则使用默认设备。
    • +
    +

    tokenizer (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 无
    • +
    • 默认**: nltk
    • +
    • 描述**: 用于分句的标记符(目前支持 “nltk ”和 “stanza”)。
    • +
    +

    language (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 否
    • +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +

    muted (bool)

    +
      +
    • 类型***: 布尔
    • +
    • 要求**: 否
    • +
    • 默认**: 假
    • +
    • 描述***: 全局静音参数。如果为 True,则不会打开 pyAudio 流。禁止通过本地扬声器播放音频(以防要合成到文件或处理音频块),并覆盖播放参数静音设置。
    • +
    +

    level (int)

    +
      +
    • 类型**: 整数
    • +
    • 必须**: 无
    • +
    • 默认**: 日志警告
    • +
    • 描述***: 设置内部日志记录器的日志记录级别。可以是 Python 内置的 logging 模块中的任意整数常量。
    • +
    +

    使用示例:

    +
    engine = YourEngine() # 用你的引擎代替
    +stream = TextToAudioStream(
    +    engine=engine、
    +    on_text_stream_start=my_text_start_func、
    +    on_text_stream_stop=my_text_stop_func、
    +    on_audio_stream_start=my_audio_start_func、
    +    on_audio_stream_stop=my_audio_stop_func、
    +    级别=logging.INFO
    +)
    +
    +

    方法

    +

    playplay_async 方法

    +

    这些方法负责执行文本到音频的合成并播放音频流。不同之处在于,play 是一个阻塞函数,而 play_async 则在单独的线程中运行,允许其他操作继续进行。

    +
    参数:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 默认**: true
    • +
    • 描述***: 当设置为 “true ”时,该方法将优先考虑速度,以更快的速度生成和播放句子片段。这对延迟很重要的应用程序很有用。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 当设置为 “true ”时,快速句子片段处理适用于所有句子,而不仅仅是第一个句子。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 设置为 “true ”时,允许产生多个句子片段,而不是只有一个。
    • +
    +
    buffer_threshold_seconds (浮点数)
    +
      +
    • 默认值**: 0.0
    • +
    • +

      描述**: 指定缓冲阈值的时间(以秒为单位),它会影响音频播放的流畅性和连续性。

      +
    • +
    • +

      工作原理 在合成新句子之前,系统会检查缓冲区中剩余的音频资料是否多于 buffer_threshold_seconds指定的时间。如果是,系统就会从文本生成器中获取另一个句子,假设它能在缓冲区中剩余音频所提供的时间窗口内获取并合成这个新句子。这个过程可以让文本到语音引擎有更多的语境,从而更好地进行合成,增强用户体验。

      +
    • +
    +

    较高的值可确保有更多的预缓冲音频,减少播放过程中出现静音或间断的可能性。如果出现断句或停顿,请考虑增加该值。

    +
    minimum_sentence_length(int)
    +
      +
    • 默认10
    • +
    • 描述**: 设置将字符串视为句子进行合成的最小字符长度。这会影响文本块的处理和播放方式。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 默认值**: 10
    • +
    • 描述**: 第一个句子片段的最小字符数。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 启用后,记录合成为音频的文本块。有助于审计和调试。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 默认**: true
    • +
    • 描述**: 如果为 True,则在处理前重置生成的文本。
    • +
    +
    output_wavfile (str)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 如果设置为 “是”,则将音频保存到指定的 WAV 文件中。
    • +
    +
    on_sentence_synthesized(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成一个句子片段后调用的回调函数。
    • +
    +
    before_sentence_synthesized (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成单个句子片段之前调用的回调函数。
    • +
    +
    on_audio_chunk(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 单个音频片段准备就绪时调用的回调函数。
    • +
    +
    tokenizer (str)
    +
      +
    • 默认**: “nltk”
    • +
    • 描述**: 用于分句的标记符。目前支持 “nltk ”和 “stanza”。
    • +
    +
    tokenize_sentences (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 从输入文本中标记句子的自定义函数。如果对 nltk 和 stanza 不满意,可以提供自己的轻量级标记符。它应以字符串形式接收文本,并以字符串列表形式返回拆分后的句子。
    • +
    +
    language (str)
    +
      +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +
    context_size (int)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 用于建立句子边界检测上下文的字符数。上下文越大,检测句子边界的准确性就越高。
    • +
    +
    context_size_look_overhead (整数)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 检测句子边界时用于前瞻的额外上下文大小。
    • +
    +
    muted (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述***: 如果为 True,则禁止通过本地扬声器播放音频。当您想合成一个文件或处理音频块而不播放它们时,此功能非常有用。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 默认**: “.?!;:,\n...)]}。-”
    • +
    • 描述**: 被视为句子分隔符的字符串。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 默认值**: 15
    • +
    • 描述***: 强制产生第一个句子片段的字数。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/zh/contributing/index.html b/hi/zh/contributing/index.html new file mode 100755 index 0000000..c722062 --- /dev/null +++ b/hi/zh/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    向 RealtimeTTS 投稿

    +

    我们欢迎您为 RealtimeTTS 投稿!您可以通过以下方式为 RealtimeTTS 投稿:

    +
      +
    1. +

      报告错误: 如果您发现了错误,请在我们的 GitHub 存储库 上打开一个问题。

      +
    2. +
    3. +

      提出改进建议: 有关于新功能或改进的想法吗?我们很乐意倾听!打开问题,提出改进建议。

      +
    4. +
    5. +

      代码贡献: 想要添加新功能或修复错误?太好了!请按照以下步骤操作:

      +
    6. +
    7. 分叉版本库
    8. +
    9. 为您的功能创建一个新分支
    10. +
    11. 进行更改
    12. +
    13. +

      提交一个拉取请求,清楚地描述您的更改

      +
    14. +
    15. +

      文档: 通过修正错别字、添加示例或澄清易混淆的部分来帮助我们改进文档。

      +
    16. +
    17. +

      添加新引擎: 如果您想添加对新 TTS 引擎的支持,请先打开一个问题来讨论实现方法。

      +
    18. +
    +

    感谢您帮助改进 RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/zh/faq/index.html b/hi/zh/faq/index.html new file mode 100755 index 0000000..6b91756 --- /dev/null +++ b/hi/zh/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    常见问题

    +

    有关 RealtimeTTS 常见问题的解答,请参阅我们的 GitHub 上的常见问题页面

    +

    该页面涵盖各种主题,包括

    +
      +
    • 不同 TTS 引擎的使用
    • +
    • 处理多语言文本
    • +
    • 性能优化
    • +
    • 常见问题的故障排除
    • +
    +

    更多详细信息,请访问以上链接。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/zh/index.html b/hi/zh/index.html new file mode 100755 index 0000000..203a939 --- /dev/null +++ b/hi/zh/index.html @@ -0,0 +1,1937 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    易于使用、低延迟、适用于实时应用的文本到语音库

    +

    项目简介

    +

    RealtimeTTS 是专为实时应用设计的最先进的文本转语音(TTS)库。它能将文本流快速转换为高质量的听觉输出,并将延迟降到最低。

    +

    关键功能

    +
      +
    • 低延迟**:文本到语音的转换几乎瞬时完成,与 LLM 输出兼容
    • +
    • 高质量音频**:生成清晰自然的语音
    • +
    • 支持多种 TTS 引擎**:支持 OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS 和 System TTS
    • +
    • 多种语言**
    • +
    • 稳定可靠**:通过后备机制确保持续运行,在出现中断时切换到替代引擎,保证性能和可靠性的一致性
    • +
    +

    有关安装说明、使用示例和 API 参考,请使用侧边栏浏览文档。

    +

    通过DeepL.com(免费版)翻译

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/zh/installation/index.html b/hi/zh/installation/index.html new file mode 100755 index 0000000..e80fcdb --- /dev/null +++ b/hi/zh/installation/index.html @@ -0,0 +1,2274 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +
    +

    注意: 不再推荐使用 pip install realtimetts 进行基本安装,而应使用 pip install realtimetts[all]

    +
    +

    RealtimeTTS 库为您的用例提供了各种依赖项的安装选项。以下是根据需要安装 RealtimeTTS 的不同方法:

    +

    完整安装

    +

    安装支持所有 TTS 引擎的 RealtimeTTS:

    +
    pip install -U realtimetts[all]
    +
    +

    定制安装

    +

    RealtimeTTS 允许使用最少的库安装进行自定义安装。以下是可用选项: +- 全部: 完全安装所有支持的引擎。 +- *系统: 包括特定系统的 TTS 功能(如 pyttsx3)。 +- azure: 添加 Azure 认知服务语音支持。 +- elevenlabs: 包括与 ElevenLabs API 的集成。 +- openai: 用于 OpenAI 语音服务。 +- gtts: 支持谷歌文本到语音。 +- coqui: 安装 Coqui TTS 引擎。 +- minimal: 只安装基本要求,不安装引擎(只有当你想开发自己的引擎时才需要)。

    +

    如果您只想为本地神经元 Coqui TTS 安装 RealtimeTTS,则应使用

    +
    pip install realtimetts[coqui]
    +
    +

    例如,如果您想安装只支持 Azure 认知服务语音、ElevenLabs 和 OpenAI 的 RealtimeTTS:

    +
    pip install realtimetts[azure,elevenlabs,openai].
    +
    +

    虚拟环境安装

    +

    如果想在虚拟环境中进行完整安装,请按照以下步骤操作:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    有关 CUDA 安装 的更多信息。

    +

    引擎要求

    +

    RealtimeTTS 支持的不同引擎有其独特的要求。请根据所选引擎确保满足这些要求。

    +

    系统引擎

    +

    系统引擎 "开箱即用,具有系统内置的 TTS 功能。无需额外设置。

    +

    GTTS 引擎

    +

    GTTSEngine "开箱即用,使用谷歌翻译的文本到语音 API。无需额外设置。

    +

    OpenAIEngine

    +

    要使用 OpenAIEngine: +- 设置环境变量 OPENAI_API_KEY +- 安装 ffmpeg(参见 CUDA 安装 第 3 点)

    +

    AzureEngine

    +

    要使用 “AzureEngine”,你需要 +- Microsoft Azure 文本到语音 API 密钥(通过 AzureEngine 构造函数参数 “speech_key ”或环境变量 AZURE_SPEECH_KEY 提供) +- Microsoft Azure 服务区域。

    +

    在初始化 AzureEngine 时,确保这些凭据可用并配置正确。

    +

    ElevenlabsEngine

    +

    使用 ElevenlabsEngine 时需要 +- Elevenlabs API 密钥(通过 ElevenlabsEngine 构造函数参数 “api_key ”或环境变量 ELEVENLABS_API_KEY 提供) +- 系统中已安装 mpv(用于流式传输 mpeg 音频,Elevenlabs 仅提供 mpeg)。

    +

    🔹 安装 mpv: + - macOS**: + brew install mpv

    +
      +
    • Linux和Windows: 请访问 mpv.io 获取安装说明。
    • +
    +

    CoquiEngine

    +

    通过语音克隆提供高质量的本地神经 TTS。

    +

    首先下载一个神经 TTS 模型。在大多数情况下,使用 GPU 合成的实时速度足够快。需要大约 4-5GB VRAM。

    +
      +
    • 要克隆语音,请将包含源语音的波形文件的文件名作为 “语音 ”参数提交给 CoquiEngine 构造函数
    • +
    • 语音克隆最好使用 22050 Hz 单声道 16 位 WAV 文件,其中包含一个短(约 5-30 秒)样本
    • +
    +

    在大多数系统上,需要 GPU 的支持才能以足够快的速度实时运行,否则会出现卡顿现象。

    +

    CUDA 安装

    +

    这些步骤适用于那些需要更好性能并且拥有兼容的NVIDIA GPU的人。

    +
    +

    注意要检查您的NVIDIA GPU是否支持CUDA,请访问官方CUDA GPU列表

    +
    +

    要使用支持CUDA的torch,请按照以下步骤操作:

    +
    +

    注意较新的 PyTorch 安装 可能(未经验证)不再需要安装 Toolkit(可能也不需要安装 cuDNN)。

    +
    +
      +
    1. +

      安装 NVIDIA CUDA Toolkit: + 例如,要安装 Toolkit 12.X,请

      +
        +
      • 访问 NVIDIA CUDA 下载
      • +
      • 选择你的操作系统、系统架构和操作系统版本。
      • +
      • 下载并安装软件。
      • +
      +

      或者要安装 Toolkit 11.8,请 +- 访问 NVIDIA CUDA Toolkit Archive。 +- 选择您的操作系统、系统架构和操作系统版本。 +- 下载并安装软件。

      +
    2. +
    3. +

      安装 NVIDIA cuDNN

      +

      例如,要为CUDA 11.x安装cuDNN 8.7.0,请 +- 访问NVIDIA cuDNN归档。 +- 点击“下载 cuDNN v8.7.0(2022年11月28日),适用于 CUDA 11.x”。 +- 下载并安装软件。

      +
    4. +
    5. +

      安装 ffmpeg

      +

      您可以从 ffmpeg 网站 下载适用于您操作系统的安装程序。

      +

      或者使用包管理器:

      +
        +
      • +

        在 Ubuntu 或 Debian 上: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        在 Arch Linux 上: + sudo pacman -S ffmpeg

        +
      • +
      • +

        在使用 Homebrew 的 MacOS 上 (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        在Windows上使用Chocolatey (https://chocolatey.org/): + ``` + choco install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **在Windows上使用Scoop** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```plaintext
    +        scoop install ffmpeg
    +        ```
    +
    +4. **安装带有CUDA支持的PyTorch**:
    +
    +    要升级您的PyTorch安装以启用CUDA的GPU支持,请根据您的具体CUDA版本遵循以下说明。 如果您希望通过CUDA功能提升RealtimeSTT的性能,这将非常有用。
    +
    +    - **对于CUDA 11.8:**
    +
    +        要更新 PyTorch 和 Torchaudio 以支持 CUDA 11.8,请使用以下命令:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        文本待翻译:```
    +
    +- **对于CUDA 12.X:**
    +
    +
    +    要更新 PyTorch 和 Torchaudio 以支持 CUDA 12.X,请执行以下操作:
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +文本待翻译:

    +
    将 `2.3.1` 替换为适合您的系统和需求的 PyTorch 版本。
    +
    +
      +
    1. 修复以解决兼容性问题: + 如果你遇到库兼容性问题,尝试将这些库设置为固定版本:
    2. +
    +

    文本翻译:```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/hi/zh/usage/index.html b/hi/zh/usage/index.html new file mode 100755 index 0000000..dc5e2b5 --- /dev/null +++ b/hi/zh/usage/index.html @@ -0,0 +1,2149 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + विषय पर बढ़ें + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    用法

    +

    快速开始

    +

    这是一个基本的使用示例:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # 替换为你的TTS引擎 +流 = 文本转语音流(engine) +stream.feed("你好,世界!") 你今天怎么样? +stream.play_async()

    +

    供稿文本

    +

    你可以输入单个字符串:

    +
    stream.feed("你好,这是一句话。")
    +
    +

    或者你可以为实时流媒体提供生成器和字符迭代器:

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```聊天完成。创建(
    +        模型="gpt-3.5-turbo",
    +        消息=[{"角色": "用户", "内容": prompt}],
    +        流式=True
    +    ):
    +        如果 (text_chunk := chunk["choices"]上下文:[0]  
    +文本翻译:[0]["德尔塔"].get("content")) 不是 None:
    +            生成文本块
    +
    +文本流 = 写入("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +```python
    +char_iterator = iter("逐字符流式传输。")
    +stream.feed(char_iterator)
    +
    +

    播放

    +

    异步地:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同步:

    +
    stream.play()
    +
    +

    测试库

    +

    测试子目录包含一组脚本,帮助您评估和理解RealtimeTTS库的功能。

    +

    请注意,大多数测试仍然依赖于“旧”的OpenAI API(<1.0.0)。 在 openai_1.0_test.py 中演示了新 OpenAI API 的用法。

    +
      +
    • +

      simple_test.py

      +
        +
      • 描述:一个“你好,世界”风格的演示,展示了该库的最简单用法。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 描述:一个全面的演示,展示了该库提供的大多数功能。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 描述:本地coqui TTS引擎的测试。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述:实时翻译成六种不同的语言。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 唤醒词激活并通过语音界面访问OpenAI API。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依赖项: 运行 pip install openai keyboard realtimestt
      • +
      • 描述: 在开始AI对话之前选择TTS引擎和声音。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 一个20行代码的基本对话机器人。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 如何将库与大型语言模型集成的简单演示 (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 展示回调并让您在实际应用环境中检查延迟时间。
      • +
      +
    • +
    +

    暂停、继续和停止

    +

    暂停音频流:

    +
    stream.pause()
    +
    +

    恢复暂停的直播:

    +
    stream.resume()
    +
    +

    立即停止直播:

    +
    stream.stop()
    +
    +

    需求说明

    +
      +
    • Python 版本
    • +
    • 要求:Python >= 3.9,< 3.13
    • +
    • +

      原因: 该库依赖于来自coqui的GitHub库“TTS”,该库需要在此范围内的Python版本。

      +
    • +
    • +

      PyAudio:用于创建输出音频流

      +
    • +
    • +

      stream2sentence:将输入的文本流拆分成句子

      +
    • +
    • +

      pyttsx3:系统文本转语音引擎

      +
    • +
    • +

      pydub:用于转换音频块格式

      +
    • +
    • +

      azure-cognitiveservices-speech:Azure 语音合成引擎

      +
    • +
    • +

      elevenlabs:Elevenlabs 文字转语音转换引擎

      +
    • +
    • +

      coqui-TTS:Coqui的XTTS文本转语音库,用于高质量本地神经TTS

      +
    • +
    +

    Idiap研究所致敬,感谢他们维护了coqui tts的一个分支

    +
      +
    • +

      openai:与OpenAI的TTS API互动

      +
    • +
    • +

      gtts:谷歌翻译文本转语音转换

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/api/index.html b/it/api/index.html new file mode 100755 index 0000000..99cbb61 --- /dev/null +++ b/it/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Italiano

    + +

    Configurazione

    +

    Parametri di Inizializzazione per TextToAudioStream

    +

    Quando si inizializza la classe TextToAudioStream, sono disponibili diverse opzioni per personalizzare il suo comportamento. Ecco i parametri disponibili:

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Obbligatorio: Sì
    • +
    • Descrizione: Il motore sottostante responsabile della sintesi da testo ad audio. È necessario fornire un'istanza di BaseEngine o della sua sottoclasse per abilitare la sintesi audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando inizia lo stream di testo. Utilizzala per qualsiasi configurazione o registrazione necessaria.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando termina lo stream di testo. Puoi utilizzarla per attività di pulizia o registrazione.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene invocata quando inizia lo stream audio. Utile per aggiornamenti dell'interfaccia utente o registrazione eventi.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando lo stream audio si ferma. Ideale per la pulizia delle risorse o attività di post-elaborazione.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando viene elaborato un singolo carattere.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: None
    • +
    • Descrizione: Specifica l'indice del dispositivo di output da utilizzare. None usa il dispositivo predefinito.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: nltk
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi (attualmente sono supportati "nltk" e "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: en
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Obbligatorio: No
    • +
    • Predefinito: False
    • +
    • Descrizione: Parametro globale di silenziamento. Se True, non verrà aperto alcuno stream pyAudio. Disabilita la riproduzione audio attraverso gli altoparlanti locali (nel caso in cui si desideri sintetizzare su file o elaborare chunk audio) e sovrascrive l'impostazione muted dei parametri di riproduzione.
    • +
    +

    level (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: logging.WARNING
    • +
    • Descrizione: Imposta il livello di logging per il logger interno. Può essere qualsiasi costante intera dal modulo logging integrato di Python.
    • +
    +

    Esempio di Utilizzo:

    +
    engine = YourEngine()  # Sostituire con il proprio motore
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Metodi

    +

    play e play_async

    +

    Questi metodi sono responsabili dell'esecuzione della sintesi testo-audio e della riproduzione dello stream audio. La differenza è che play è una funzione bloccante, mentre play_async viene eseguito in un thread separato, permettendo ad altre operazioni di procedere.

    +
    Parametri:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Quando impostato su True, il metodo darà priorità alla velocità, generando e riproducendo i frammenti di frase più rapidamente. Questo è utile per applicazioni dove la latenza è importante.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, applica l'elaborazione rapida dei frammenti di frase a tutte le frasi, non solo alla prima.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, permette di produrre più frammenti di frase invece di uno solo.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Predefinito: 0.0
    • +
    • +

      Descrizione: Specifica il tempo in secondi per la soglia di buffering, che influenza la fluidità e la continuità della riproduzione audio.

      +
    • +
    • +

      Come Funziona: Prima di sintetizzare una nuova frase, il sistema controlla se nel buffer rimane più materiale audio del tempo specificato da buffer_threshold_seconds. In caso affermativo, recupera un'altra frase dal generatore di testo, assumendo che possa recuperare e sintetizzare questa nuova frase entro la finestra temporale fornita dall'audio rimanente nel buffer. Questo processo consente al motore di sintesi vocale di avere più contesto per una migliore sintesi, migliorando l'esperienza utente.

      +
    • +
    +

    Un valore più alto assicura che ci sia più audio pre-bufferizzato, riducendo la probabilità di silenzi o interruzioni durante la riproduzione. Se si verificano interruzioni o pause, considera di aumentare questo valore.

    +
    minimum_sentence_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Imposta la lunghezza minima in caratteri per considerare una stringa come una frase da sintetizzare. Questo influisce su come vengono elaborati e riprodotti i chunk di testo.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Il numero minimo di caratteri richiesti per il primo frammento di frase prima della produzione.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando abilitato, registra i chunk di testo mentre vengono sintetizzati in audio. Utile per il controllo e il debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Se True, reimposta il testo generato prima dell'elaborazione.
    • +
    +
    output_wavfile (str)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Se impostato, salva l'audio nel file WAV specificato.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata dopo che un singolo frammento di frase è stato sintetizzato.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata prima che un singolo frammento di frase venga sintetizzato.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Funzione di callback che viene chiamata quando un singolo chunk audio è pronto.
    • +
    +
    tokenizer (str)
    +
      +
    • Predefinito: "nltk"
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi. Attualmente supporta "nltk" e "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione personalizzata che tokenizza le frasi dal testo di input. Puoi fornire il tuo tokenizer leggero se non sei soddisfatto di nltk e stanza. Dovrebbe prendere il testo come stringa e restituire le frasi divise come lista di stringhe.
    • +
    +
    language (str)
    +
      +
    • Predefinito: "en"
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +
    context_size (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Il numero di caratteri utilizzati per stabilire il contesto per il rilevamento dei confini della frase. Un contesto più ampio migliora la precisione nel rilevare i confini delle frasi.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Dimensione del contesto aggiuntiva per guardare avanti durante il rilevamento dei confini delle frasi.
    • +
    +
    muted (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Se True, disabilita la riproduzione audio attraverso gli altoparlanti locali. Utile quando si desidera sintetizzare su file o elaborare chunk audio senza riprodurli.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Predefinito: ".?!;:,\n…)]}。-"
    • +
    • Descrizione: Una stringa di caratteri che sono considerati delimitatori di frase.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Predefinito: 15
    • +
    • Descrizione: Il numero di parole dopo il quale viene forzata la produzione del primo frammento di frase.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ar/api/index.html b/it/ar/api/index.html new file mode 100755 index 0000000..b2a4182 --- /dev/null +++ b/it/ar/api/index.html @@ -0,0 +1,2359 @@ + + + + + + + + + + + + + + + + + + + Api - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Api

    + +

    التكوين

    +

    معلمات التهيئة لـ TextToAudioStream

    +

    عند تهيئة فئة TextToAudioStream، لديك خيارات متعددة لتخصيص سلوكها. إليك المعلمات المتاحة:

    +

    engine (BaseEngine)

    +
      +
    • النوع: BaseEngine
    • +
    • مطلوب: نعم المحرك الأساسي المسؤول عن تحويل النص إلى صوت. يجب عليك تقديم نسخة من BaseEngine أو أحد فروعها لتمكين توليف الصوت.
    • +
    +

    on_text_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق النص. استخدمه لأي إعداد أو تسجيل قد تحتاجه.
    • +
    +

    on_text_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم تفعيل هذه الدالة الراجعة الاختيارية عند انتهاء تدفق النص. يمكنك استخدام هذا لمهام التنظيف أو التسجيل.
    • +
    +

    on_audio_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق الصوت. مفيد لتحديثات واجهة المستخدم أو تسجيل الأحداث.
    • +
    +

    on_audio_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا تُستدعى هذه الدالة الاختيارية عند توقف تدفق الصوت. مثالي لتنظيف الموارد أو مهام المعالجة اللاحقة.
    • +
    +

    on_character (callable)

    +

    السياق: - النوع:
    +النص للترجمة: - النوع: دالة قابلة للاستدعاء +- مطلوب: لا تُستدعى هذه الدالة الاختيارية عند معالجة حرف واحد.

    +

    output_device_index (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا يحدد فهرس جهاز الإخراج الذي سيتم استخدامه. لا أحد يستخدم الجهاز الافتراضي.
    • +
    +

    tokenizer (string)

    +
      +
    • النوع: سلسلة
    • +
    • مطلوب: لا
    • +
    • افتراضي: nltk
    • +
    • الوصف: أداة تقسيم الجمل (currently "nltk" and "stanza" are supported).
    • +
    +

    language (سلسلة نصية)

    +
      +
    • النوع: سلسلة نصية
    • +
    • مطلوب: لا اللغة التي يجب استخدامها لتقسيم الجمل.
    • +
    +

    muted (bool)

    +
      +
    • النوع: Bool
    • +
    • مطلوب: لا
    • +
    • القيمة الافتراضية: False
    • +
    • الوصف: المعلمة العالمية الصامتة. إذا كان صحيحًا، فلن يتم فتح أي تدفق pyAudio. يعطل تشغيل الصوت عبر مكبرات الصوت المحلية (في حال كنت تريد التوليف إلى ملف أو معالجة أجزاء الصوت) ويتجاوز إعدادات كتم الصوت في معلمات التشغيل.
    • +
    +

    level (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا
    • +
    • افتراضي: logging.WARNING
    • +
    • الوصف: يحدد مستوى التسجيل للمدون الداخلي. يمكن أن يكون هذا أي ثابت صحيح من وحدة logging المدمجة في بايثون.
    • +
    +

    النص المراد ترجمته: #### مثال على الاستخدام:

    +
    engine = YourEngine()  # استبدل بمحركك
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    الطرق

    +

    play و play_async

    +

    هذه الطرق مسؤولة عن تنفيذ تحويل النص إلى صوت وتشغيل تدفق الصوت. الفرق هو أن play هي دالة حظر، بينما play_async تعمل في خيط منفصل، مما يسمح للعمليات الأخرى بالاستمرار.

    +

    السياق: ##### المعايير:
    +النص المراد ترجمته: ##### المعايير:

    +
    fast_sentence_fragment (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: عند تعيينه على True، ستعطي الطريقة الأولوية للسرعة، مما يؤدي إلى إنشاء وتشغيل أجزاء الجمل بشكل أسرع. هذا مفيد للتطبيقات التي تكون فيها الكمون مهمًا.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند تعيينه إلى True، يتم تطبيق معالجة أجزاء الجمل السريعة على جميع الجمل، وليس فقط الجملة الأولى.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • افتراضي: خطأ
    • +
    • الوصف: عند تعيينه على True، يسمح بإنتاج أجزاء متعددة من الجمل بدلاً من جزء واحد فقط.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • الافتراضي: 0.0
    • +
    • +

      الوصف: يحدد الوقت بالثواني لعتبة التخزين المؤقت، مما يؤثر على سلاسة واستمرارية تشغيل الصوت.

      +
    • +
    • +

      كيف يعمل: قبل تركيب جملة جديدة، يتحقق النظام مما إذا كان هناك المزيد من المواد الصوتية المتبقية في المخزن المؤقت أكثر من الوقت المحدد بواسطة buffer_threshold_seconds. إذا كان الأمر كذلك، فإنه يسترجع جملة أخرى من مولد النصوص، على افتراض أنه يمكنه جلب وتوليف هذه الجملة الجديدة ضمن الإطار الزمني المتاح من الصوت المتبقي في الذاكرة المؤقتة. تسمح هذه العملية لمحرك تحويل النص إلى كلام بالحصول على مزيد من السياق لتحسين التركيب، مما يعزز تجربة المستخدم.

      +
    • +
    +

    قيمة أعلى تضمن وجود المزيد من الصوت المخزن مسبقًا، مما يقلل من احتمال حدوث صمت أو فجوات أثناء التشغيل. إذا كنت تواجه انقطاعات أو توقفات، فكر في زيادة هذه القيمة.

    +
    minimum_sentence_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: يحدد الحد الأدنى لطول الأحرف لاعتبار سلسلة كنص يجب تصنيعه. هذا يؤثر على كيفية معالجة وتشغيل أجزاء النص.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: الحد الأدنى لعدد الأحرف المطلوبة للجزء الأول من الجملة قبل التوقف.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند التفعيل، يسجل أجزاء النص كما يتم تحويلها إلى صوت. مفيد للتدقيق وإصلاح الأخطاء.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: إذا كان صحيحًا، أعد تعيين النص المُولد قبل المعالجة.
    • +
    +
    output_wavfile (str)
    +
      +
    • الافتراضي: None
    • +
    • الوصف: إذا تم تعيينه، احفظ الصوت في ملف WAV المحدد.
    • +
    +
    on_sentence_synthesized (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة رد نداء تُستدعى بعد أن يتم تركيب جزء جملة واحد.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: دالة رد نداء تُستدعى قبل أن يتم تركيب جزء جملة واحد.
    • +
    +
    on_audio_chunk (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة الاستدعاء التي تُستدعى عندما يكون جزء الصوت جاهزًا.
    • +
    +
    tokenizer (str)
    +
      +
    • الافتراضي: "nltk"
    • +
    • الوصف: المحلل اللغوي المستخدم لتقسيم الجمل. يدعم حاليًا "nltk" و "stanza".
    • +
    +
    tokenize_sentences (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء +السياق: - الوصف:
      +النص للترجمة: - الوصف: دالة مخصصة تقوم بتقسيم الجمل من النص المدخل. يمكنك توفير محلل لغوي خفيف الوزن خاص بك إذا لم تكن راضيًا عن nltk وstanza. يجب أن يأخذ النص كسلسلة ويعيد الجمل المقسمة كقائمة من السلاسل.
    • +
    +
    language (str)
    +
      +
    • الإعداد الافتراضي: "en"
    • +
    • الوصف: اللغة المستخدمة لتقسيم الجمل.
    • +
    +
    context_size (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: عدد الأحرف المستخدمة لتحديد السياق لاكتشاف حدود الجمل. سياق أكبر يحسن دقة اكتشاف حدود الجمل.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: حجم سياق إضافي للنظر للأمام عند اكتشاف حدود الجمل.
    • +
    +
    muted (bool)
    +
      +
    • الإعداد الافتراضي: خطأ
    • +
    • الوصف: إذا كان صحيحًا، يتم تعطيل تشغيل الصوت عبر مكبرات الصوت المحلية. مفيد عندما تريد التوليف إلى ملف أو معالجة مقاطع الصوت دون تشغيلها.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • الإعداد الافتراضي: ".?!;:,\n…)]}。-" سلسلة من الأحرف التي تُعتبر محددات للجمل.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • الافتراضي: 15
    • +
    • الوصف: عدد الكلمات التي يجب بعدها أن يتم تقديم الجزء الأول من الجملة.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ar/contributing/index.html b/it/ar/contributing/index.html new file mode 100755 index 0000000..d01fe78 --- /dev/null +++ b/it/ar/contributing/index.html @@ -0,0 +1,1853 @@ + + + + + + + + + + + + + + + + + + + المساهمة في RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    المساهمة في RealtimeTTS

    +

    نرحب بالمساهمات في RealtimeTTS! إليك بعض الطرق التي يمكنك المساهمة بها:

    +
      +
    1. +

      الإبلاغ عن الأخطاء: إذا وجدت خطأً، يرجى فتح مشكلة على مستودع GitHub الخاص بنا.

      +
    2. +
    3. +

      اقتراح التحسينات: هل لديك أفكار لميزات جديدة أو تحسينات؟ نود أن نسمعها! افتح قضية لاقتراح تحسينات.

      +
    4. +
    5. +

      مساهمات البرمجة: هل تريد إضافة ميزة جديدة أو إصلاح خطأ؟ رائع! يرجى اتباع هذه الخطوات:

      +
    6. +
    7. قم بعمل Fork للمستودع
    8. +
    9. أنشئ فرعًا جديدًا لميزتك
    10. +
    11. أجرِ التغييرات الخاصة بك
    12. +
    13. +

      قدّم طلب سحب مع وصف واضح للتغييرات التي أجريتها

      +
    14. +
    15. +

      التوثيق: ساعدنا في تحسين توثيقنا من خلال تصحيح الأخطاء المطبعية، وإضافة أمثلة، أو توضيح الأقسام المربكة.

      +
    16. +
    17. +

      إضافة محركات جديدة: إذا كنت ترغب في إضافة دعم لمحرك TTS جديد، يرجى فتح قضية أولاً لمناقشة التنفيذ.

      +
    18. +
    +

    شكراً لمساعدتك في تحسين RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ar/faq/index.html b/it/ar/faq/index.html new file mode 100755 index 0000000..a7a5e9e --- /dev/null +++ b/it/ar/faq/index.html @@ -0,0 +1,1837 @@ + + + + + + + + + + + + + + + + + + + الأسئلة المتكررة - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    الأسئلة المتكررة

    +

    للحصول على إجابات للأسئلة الشائعة حول RealtimeTTS، يرجى الرجوع إلى صفحة الأسئلة الشائعة على GitHub.

    +

    تغطي هذه الصفحة مواضيع متنوعة بما في ذلك:

    +
      +
    • استخدام محركات تحويل النص إلى كلام المختلفة
    • +
    • التعامل مع النصوص متعددة اللغات
    • +
    • تحسين الأداء
    • +
    • استكشاف المشكلات الشائعة وإصلاحها
    • +
    +

    لمزيد من المعلومات التفصيلية، يرجى زيارة الرابط أعلاه.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ar/index.html b/it/ar/index.html new file mode 100755 index 0000000..7b16595 --- /dev/null +++ b/it/ar/index.html @@ -0,0 +1,1867 @@ + + + + + + + + + + + + + + + + + + + RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    مكتبة تحويل النص إلى كلام سهلة الاستخدام ومنخفضة الكمون للتطبيقات في الوقت الحقيقي

    +

    عن المشروع

    +

    RealtimeTTS هي مكتبة متطورة لتحويل النص إلى كلام (TTS) مصممة للتطبيقات في الوقت الفعلي. تتميز بقدرتها على تحويل تدفقات النصوص بسرعة إلى مخرجات صوتية عالية الجودة مع الحد الأدنى من التأخير.

    +

    الميزات الرئيسية

    +
      +
    • زمن استجابة منخفض: تحويل النص إلى كلام شبه فوري، متوافق مع مخرجات نماذج اللغة الكبيرة
    • +
    • صوت عالي الجودة: يولد كلامًا واضحًا وطبيعيًا
    • +
    • دعم محركات تحويل النص إلى كلام المتعددة: يدعم OpenAI TTS، Elevenlabs، Azure Speech Services، Coqui TTS، gTTS وSystem TTS
    • +
    • متعدد اللغات
    • +
    • قوي وموثوق: يضمن التشغيل المستمر من خلال آلية احتياطية، ويتحول إلى محركات بديلة في حالة حدوث انقطاعات لضمان أداء موحد وموثوق
    • +
    +

    للحصول على تعليمات التثبيت، وأمثلة الاستخدام، ومرجع واجهة برمجة التطبيقات، يرجى التنقل عبر الوثائق باستخدام الشريط الجانبي.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ar/installation/index.html b/it/ar/installation/index.html new file mode 100755 index 0000000..42e7b36 --- /dev/null +++ b/it/ar/installation/index.html @@ -0,0 +1,2094 @@ + + + + + + + + + + + + + + + + + + + Installation - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Installation

    + +
    +

    ملاحظة: التثبيت الأساسي باستخدام pip install realtimetts لم يعد موصى به، استخدم pip install realtimetts[all] بدلاً من ذلك.

    +
    +

    توفر مكتبة RealtimeTTS خيارات تثبيت لمختلف التبعيات لحالتك الاستخدامية. إليك الطرق المختلفة التي يمكنك من خلالها تثبيت RealtimeTTS حسب احتياجاتك:

    +

    التثبيت الكامل

    +

    لتثبيت RealtimeTTS مع دعم لجميع محركات تحويل النص إلى كلام:

    +
    pip install -U realtimetts[all]
    +
    +

    التثبيت المخصص

    +

    يسمح RealtimeTTS بالتثبيت المخصص مع الحد الأدنى من تثبيت المكتبات. إليك الخيارات المتاحة: +- الكل: التثبيت الكامل مع دعم كل المحركات. +- النظام: يشمل قدرات تحويل النص إلى كلام الخاصة بالنظام (e.g., pyttsx3). +- azure: يضيف دعم خدمات Azure Cognitive Services Speech. +- elevenlabs: يتضمن التكامل مع واجهة برمجة تطبيقات ElevenLabs. +- openai: لخدمات الصوت من OpenAI. +- gtts: دعم Google Text-to-Speech. +- coqui: يقوم بتثبيت محرك Coqui TTS. +- minimal: يقوم بتثبيت المتطلبات الأساسية فقط بدون محرك (only needed if you want to develop an own engine)

    +

    قل أنك تريد تثبيت RealtimeTTS للاستخدام المحلي فقط مع Coqui TTS العصبي، فعليك استخدام:

    +
    pip install realtimetts[coqui]
    +
    +

    على سبيل المثال، إذا كنت ترغب في تثبيت RealtimeTTS مع دعم Azure Cognitive Services Speech و ElevenLabs و OpenAI فقط:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    تثبيت البيئة الافتراضية

    +

    بالنسبة لأولئك الذين يرغبون في إجراء تثبيت كامل داخل بيئة افتراضية، اتبعوا هذه الخطوات:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    مزيد من المعلومات حول تثبيت CUDA.

    +

    متطلبات المحرك

    +

    تتطلب المحركات المختلفة المدعومة من RealtimeTTS متطلبات فريدة. تأكد من أنك تلبي هذه المتطلبات بناءً على المحرك الذي تختاره.

    +

    محرك النظام

    +

    يعمل SystemEngine مباشرة مع قدرات تحويل النص إلى كلام المدمجة في نظامك. لا حاجة لأي إعداد إضافي.

    +

    GTTSEngine

    +

    يعمل GTTSEngine بشكل مباشر باستخدام واجهة برمجة التطبيقات لتحويل النص إلى كلام من Google Translate. لا حاجة لأي إعداد إضافي.

    +

    OpenAIEngine

    +

    لاستخدام OpenAIEngine: +- تعيين متغير البيئة OPENAI_API_KEY +- تثبيت ffmpeg (انظر تثبيت CUDA النقطة 3)

    +

    AzureEngine

    +

    لاستخدام AzureEngine، ستحتاج إلى: +- مفتاح واجهة برمجة تطبيقات تحويل النص إلى كلام من Microsoft Azure (المقدم عبر معامل منشئ AzureEngine "speech_key" أو في متغير البيئة AZURE_SPEECH_KEY) +- منطقة خدمة Microsoft Azure.

    +

    تأكد من أن لديك هذه البيانات متاحة ومهيأة بشكل صحيح عند تهيئة AzureEngine.

    +

    محرك Elevenlabs

    +

    بالنسبة لـ ElevenlabsEngine، تحتاج إلى: +- مفتاح واجهة برمجة تطبيقات Elevenlabs (المقدم عبر معلمة منشئ ElevenlabsEngine "api_key" أو في متغير البيئة ELEVENLABS_API_KEY) +- تم تثبيت mpv على نظامك (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 تثبيت mpv: + - macOS: + ``` + brew install mpv

    +
    
    +  - **لينكس وويندوز**: قم بزيارة [mpv.io](https://mpv.io/) للحصول على تعليمات التثبيت.
    +
    +### CoquiEngine
    +
    +يوفر تحويل النص إلى كلام العصبي المحلي عالي الجودة مع استنساخ الصوت.
    +
    +يقوم بتحميل نموذج TTS العصبي أولاً. في معظم الحالات، سيكون سريعًا بما يكفي للتشغيل في الوقت الحقيقي باستخدام تركيب GPU. يحتاج إلى حوالي 4-5 جيجابايت من ذاكرة الوصول العشوائي للرسوميات.
    +
    +- لاستنساخ الصوت، قدم اسم ملف wav يحتوي على الصوت المصدر كمعامل "voice" إلى مُنشئ CoquiEngine
    +- يعمل استنساخ الصوت بشكل أفضل مع ملف WAV أحادي 16 بت بتردد 22050 هرتز يحتوي على عينة قصيرة (~5-30 ثانية)
    +
    +في معظم الأنظمة، ستكون هناك حاجة لدعم وحدة معالجة الرسوميات (GPU) لتشغيلها بسرعة كافية في الوقت الحقيقي، وإلا ستواجه تلعثماً.
    +
    +
    +### تثبيت CUDA
    +
    +تُوصى هذه الخطوات لمن يحتاجون إلى **أداء أفضل** ولديهم وحدة معالجة رسومات NVIDIA متوافقة.
    +
    +> **ملاحظة**: *للتحقق مما إذا كانت بطاقة NVIDIA الرسومية الخاصة بك تدعم CUDA، قم بزيارة [قائمة بطاقات CUDA الرسمية](https://developer.nvidia.com/cuda-gpus).*
    +
    +لاستخدام Torch مع الدعم عبر CUDA، يرجى اتباع الخطوات التالية:
    +
    +> **ملاحظة**: *قد لا تحتاج إصدارات PyTorch الأحدث [إلى](https://stackoverflow.com/a/77069523) (غير مؤكدة) إلى تثبيت Toolkit (وربما cuDNN) بعد الآن.*
    +
    +1. **تثبيت NVIDIA CUDA Toolkit**:
    +    على سبيل المثال، لتثبيت Toolkit 12.X، يرجى
    +    - زيارة [تنزيلات NVIDIA CUDA](https://developer.nvidia.com/cuda-downloads).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار النظام.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +    أو لتثبيت Toolkit 11.8، يرجى
    +    - زيارة [أرشيف NVIDIA CUDA Toolkit](https://developer.nvidia.com/cuda-11-8-0-download-archive).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار نظام التشغيل.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٢. **تثبيت NVIDIA cuDNN**:
    +
    +    على سبيل المثال، لتثبيت cuDNN 8.7.0 لـ CUDA 11.x يرجى
    +    - زيارة [أرشيف NVIDIA cuDNN](https://developer.nvidia.com/rdp/cudnn-archive).
    +    - انقر على "تحميل cuDNN v8.7.0 (28 نوفمبر 2022)، لـ CUDA 11.x".
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٣. **تثبيت ffmpeg**:
    +
    +    يمكنك تنزيل مثبت لنظام التشغيل الخاص بك من [موقع ffmpeg](https://ffmpeg.org/download.html).
    +
    +    أو استخدم مدير حزم:
    +
    +    - **على أوبونتو أو ديبيان**:
    +        ```
    +        sudo apt update && sudo apt install ffmpeg
    +        ```
    +
    +    - **على أرتش لينكس**:
    +        ```
    +        sudo pacman -S ffmpeg
    +        ```
    +
    +    - **على نظام MacOS باستخدام Homebrew** ([https://brew.sh/](https://brew.sh/)):
    +        ```
    +        brew install ffmpeg
    +        ```
    +
    +    - **على نظام ويندوز باستخدام Chocolatey** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **على نظام ويندوز باستخدام سكوب** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    سكووب تثبيت ffmpeg
    +
    +
    
    +٤. **تثبيت PyTorch مع دعم CUDA**:
    +
    +    لترقية تثبيت PyTorch الخاص بك لتمكين دعم GPU باستخدام CUDA، اتبع هذه التعليمات بناءً على إصدار CUDA الخاص بك. هذا مفيد إذا كنت ترغب في تحسين أداء RealtimeSTT بقدرات CUDA.
    +
    +    - **لـ CUDA 11.8:**
    +
    +        لتحديث PyTorch و Torchaudio لدعم CUDA 11.8، استخدم الأوامر التالية:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        النص للترجمة: ```
    +
    +- **لـ CUDA 12.X:**
    +
    +
    +    لتحديث PyTorch و Torchaudio لدعم CUDA 12.X، نفذ ما يلي:
    +
    +    ```
    +    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +

    النص للترجمة:

    +
    استبدل `2.3.1` بالإصدار من PyTorch الذي يتناسب مع نظامك ومتطلباتك.
    +
    +
      +
    1. إصلاح لحل مشاكل التوافق: + إذا واجهت مشاكل في توافق المكتبات، حاول ضبط هذه المكتبات على إصدارات ثابتة:
    2. +
    +

    النص للترجمة: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ar/usage/index.html b/it/ar/usage/index.html new file mode 100755 index 0000000..e3cbbd9 --- /dev/null +++ b/it/ar/usage/index.html @@ -0,0 +1,2035 @@ + + + + + + + + + + + + + + + + + + + الاستخدام - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    الاستخدام

    +

    البداية السريعة

    +

    إليك مثال بسيط للاستخدام:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    نص التغذية

    +

    يمكنك إدخال سلاسل فردية:

    +
    stream.feed("مرحبًا، هذه جملة.")
    +
    +

    أو يمكنك تزويد المولدات ومكررات الشخصيات للبث المباشر:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    التشغيل

    +

    بشكل غير متزامن:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    بالتزامن:

    +
    stream.play()
    +
    +

    اختبار المكتبة

    +

    تحتوي الدليل الفرعي للاختبار على مجموعة من السكربتات لمساعدتك في تقييم وفهم قدرات مكتبة RealtimeTTS.

    +

    يرجى ملاحظة أن معظم الاختبارات لا تزال تعتمد على واجهة برمجة التطبيقات "القديمة" من OpenAI (<1.0.0). يتم توضيح استخدام واجهة برمجة التطبيقات الجديدة من OpenAI في openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • الوصف: عرض توضيحي بأسلوب "مرحبا بالعالم" لأبسط استخدامات المكتبة.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • الوصف: عرض شامل يوضح معظم الميزات التي توفرها المكتبة.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • الوصف: اختبار لمحرك تحويل النص إلى كلام المحلي coqui.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt.
      • +
      • الوصف: ترجمات فورية إلى ست لغات مختلفة.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt. +السياق: - الوصف:
        +النص للترجمة: - الوصف: تم تفعيل كلمة الاستيقاظ وواجهة المستخدم المعتمدة على الصوت لواجهة برمجة تطبيقات OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • التبعيات: شغل الأمر pip install openai keyboard realtimestt.
      • +
      • الوصف: اختر محرك تحويل النص إلى كلام والصوت قبل بدء المحادثة مع الذكاء الاصطناعي.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • المتطلبات: قم بتشغيل pip install openai realtimestt.
      • +
      • الوصف: روبوت محادثة بسيط في 20 سطر من الشيفرة.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • التبعيات: شغّل pip install openai.
      • +
      • الوصف: عرض بسيط لكيفية دمج المكتبة مع نماذج اللغة الكبيرة (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • التبعيات: شغل pip install openai. +السياق: - الوصف:
        +النص للترجمة: - الوصف: يعرض الاستدعاءات ويتيح لك التحقق من أوقات الكمون في بيئة تطبيقات العالم الحقيقي.
      • +
      +
    • +
    +

    إيقاف مؤقت، استئناف وإيقاف

    +

    أوقف بث الصوت:

    +
    stream.pause()
    +
    +

    استئناف بث متوقف:

    +
    stream.resume()
    +
    +

    أوقف البث فورًا:

    +
    stream.stop()
    +
    +

    متطلبات موضحة

    +
      +
    • إصدار بايثون:
    • +
    • المطلوب: بايثون >= 3.9, < 3.13
    • +
    • +

      السبب: المكتبة تعتمد على مكتبة GitHub "TTS" من coqui، والتي تتطلب إصدارات بايثون في هذا النطاق.

      +
    • +
    • +

      PyAudio: لإنشاء دفق صوتي خارجي

      +
    • +
    • +

      stream2sentence: لتقسيم تدفق النص الوارد إلى جمل

      +
    • +
    • +

      pyttsx3: محرك تحويل النص إلى كلام للنظام

      +
    • +
    • +

      pydub: لتحويل تنسيقات مقاطع الصوت

      +
    • +
    • +

      azure-cognitiveservices-speech: محرك تحويل النص إلى كلام من Azure

      +
    • +
    • +

      elevenlabs: محرك تحويل النص إلى كلام من Elevenlabs

      +
    • +
    • +

      coqui-TTS: مكتبة Coqui XTTS لتحويل النص إلى كلام بجودة عالية باستخدام الشبكات العصبية المحلية

      +
    • +
    +

    تحية إلى معهد أبحاث إيديا على الحفاظ على نسخة مفرعة من coqui tts.

    +
      +
    • +

      openai: للتفاعل مع واجهة برمجة التطبيقات لتحويل النص إلى كلام من OpenAI

      +
    • +
    • +

      gtts: تحويل النص إلى كلام باستخدام Google Translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/contributing/index.html b/it/contributing/index.html new file mode 100755 index 0000000..3c14984 --- /dev/null +++ b/it/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuire a RealtimeTTS

    +

    Accogliamo con favore i contributi a RealtimeTTS! Ecco alcuni modi in cui puoi contribuire:

    +
      +
    1. +

      Segnalazione di bug: Se trovi un bug, apri un problema sul nostro repository GitHub.

      +
    2. +
    3. +

      Suggerendo Miglioramenti: Hai idee per nuove funzionalità o miglioramenti? Ci piacerebbe sentirli! Apri un problema per suggerire miglioramenti.

      +
    4. +
    5. +

      Contributi del codice: vuoi aggiungere una nuova funzionalità o correggere un bug? Grande! Si prega di seguire questi passaggi:

      +
    6. +
    7. Forchetta il repository
    8. +
    9. Crea un nuovo ramo per la tua funzione
    10. +
    11. Apporta le tue modifiche
    12. +
    13. +

      Invia una richiesta pull con una chiara descrizione delle modifiche

      +
    14. +
    15. +

      Documentazione: aiutaci a migliorare la nostra documentazione correggendo errori di battitura, aggiungendo esempi o chiarendo sezioni confuse.

      +
    16. +
    17. +

      Aggiunta di nuovi motori: se si desidera aggiungere il supporto per un nuovo motore TTS, aprire prima un problema per discutere l'implementazione.

      +
    18. +
    +

    Grazie per aver contribuito a rendere RealtimeTTS migliore!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/de/api/index.html b/it/de/api/index.html new file mode 100755 index 0000000..1fa9c03 --- /dev/null +++ b/it/de/api/index.html @@ -0,0 +1,2777 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Konfiguration

    +

    Initialisierungsparameter für TextToAudioStream

    +

    Bei der Initialisierung der TextToAudioStream-Klasse haben Sie verschiedene Möglichkeiten, deren Verhalten anzupassen. Hier sind die verfügbaren Parameter:

    +

    engine (BaseEngine)

    +
      +
    • Typ: BaseEngine
    • +
    • Erforderlich: Ja
    • +
    • Beschreibung: Die zugrunde liegende Engine, die für die Text-zu-Audio-Synthese verantwortlich ist. Sie müssen eine Instanz von BaseEngine oder deren Unterklasse bereitstellen, um die Audio-Synthese zu ermöglichen.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird ausgelöst, wenn der Textstream beginnt. Verwenden Sie sie für beliebige Setup- oder Logging-Aufgaben.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aktiviert, wenn der Textstream endet. Sie können diese für Aufräumarbeiten oder Logging verwenden.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream startet. Nützlich für UI-Aktualisierungen oder Event-Logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream stoppt. Ideal für Ressourcenbereinigung oder Nachbearbeitungsaufgaben.
    • +
    +

    on_character (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn ein einzelnes Zeichen verarbeitet wird.
    • +
    +

    output_device_index (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: None
    • +
    • Beschreibung: Gibt den zu verwendenden Ausgabegeräte-Index an. None verwendet das Standardgerät.
    • +
    +

    tokenizer (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: nltk
    • +
    • Beschreibung: Tokenizer für die Satztrennung (derzeit werden "nltk" und "stanza" unterstützt).
    • +
    +

    language (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: en
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +

    muted (bool)

    +
      +
    • Typ: Bool
    • +
    • Erforderlich: Nein
    • +
    • Standard: False
    • +
    • Beschreibung: Globaler Stummschaltungsparameter. Wenn True, wird kein pyAudio-Stream geöffnet. Deaktiviert die Audiowiedergabe über lokale Lautsprecher.
    • +
    +

    level (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: logging.WARNING
    • +
    • Beschreibung: Legt den Logging-Level für den internen Logger fest.
    • +
    +

    Beispielverwendung:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methoden

    +

    play und play_async

    +

    Diese Methoden sind für die Ausführung der Text-zu-Audio-Synthese und das Abspielen des Audio-Streams verantwortlich. Der Unterschied besteht darin, dass play eine blockierende Funktion ist, während play_async in einem separaten Thread läuft, wodurch andere Operationen fortgesetzt werden können.

    +

    Parameter:

    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn auf True gesetzt, priorisiert die Methode die Geschwindigkeit und generiert und spielt Satzfragmente schneller ab. Dies ist nützlich für Anwendungen, bei denen die Latenz wichtig ist.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, wird die schnelle Satzfragmentverarbeitung auf alle Sätze angewendet, nicht nur auf den ersten.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, ermöglicht es die Ausgabe mehrerer Satzfragmente anstelle von nur einem.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Beschreibung: Gibt die Zeit in Sekunden für den Puffer-Schwellenwert an, der die Gleichmäßigkeit und Kontinuität der Audiowiedergabe beeinflusst.

      +
    • +
    • +

      Funktionsweise: Bevor ein neuer Satz synthetisiert wird, prüft das System, ob mehr Audiomaterial im Puffer verbleibt als die durch buffer_threshold_seconds angegebene Zeit. Wenn ja, ruft es einen weiteren Satz vom Textgenerator ab, unter der Annahme, dass es diesen neuen Satz innerhalb des Zeitfensters, das durch das verbleibende Audio im Puffer bereitgestellt wird, abrufen und synthetisieren kann. Dieser Prozess ermöglicht es der Text-to-Speech-Engine, mehr Kontext für eine bessere Synthese zu haben und verbessert dadurch das Benutzererlebnis.

      +
    • +
    +

    Ein höherer Wert sorgt für mehr vorgepuffertes Audio und reduziert die Wahrscheinlichkeit von Stille oder Lücken während der Wiedergabe. Wenn Sie Unterbrechungen oder Pausen bemerken, erhöhen Sie diesen Wert.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Legt die minimale Zeichenlänge fest, ab der ein String als zu synthetisierender Satz betrachtet wird. Dies beeinflusst, wie Textabschnitte verarbeitet und abgespielt werden.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Die minimale Anzahl von Zeichen, die für das erste Satzfragment erforderlich sind, bevor es ausgegeben wird.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn aktiviert, protokolliert es die Textabschnitte während ihrer Synthese zu Audio. Hilfreich für Überprüfung und Debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn True, wird der generierte Text vor der Verarbeitung zurückgesetzt.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Beschreibung: Wenn gesetzt, wird das Audio in der angegebenen WAV-Datei gespeichert.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, nachdem ein einzelnes Satzfragment synthetisiert wurde.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, bevor ein einzelnes Satzfragment synthetisiert wird.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Callback-Funktion, die aufgerufen wird, wenn ein einzelner Audio-Chunk bereit ist.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Beschreibung: Tokenizer für die Satztrennung. Unterstützt derzeit "nltk" und "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine benutzerdefinierte Funktion, die Sätze aus dem Eingabetext tokenisiert. Sie können Ihren eigenen leichtgewichtigen Tokenizer bereitstellen, wenn Sie mit nltk und stanza unzufrieden sind. Die Funktion sollte Text als String entgegennehmen und getrennte Sätze als Liste von Strings zurückgeben.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Die Anzahl der Zeichen, die verwendet werden, um den Kontext für die Satzerkennung festzulegen. Ein größerer Kontext verbessert die Genauigkeit der Satzerkennung.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Zusätzliche Kontextgröße für den Vorausblick bei der Satzerkennung.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn True, wird die Audiowiedergabe über lokale Lautsprecher deaktiviert. Nützlich, wenn Sie in eine Datei synthetisieren oder Audio-Chunks verarbeiten möchten, ohne sie abzuspielen.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Beschreibung: Eine Zeichenkette von Zeichen, die als Satztrennzeichen betrachtet werden.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Beschreibung: Die Anzahl der Wörter, nach denen das erste Satzfragment erzwungen ausgegeben wird.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/de/contributing/index.html b/it/de/contributing/index.html new file mode 100755 index 0000000..f2c51fe --- /dev/null +++ b/it/de/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Beitrag zu RealtimeTTS

    +

    Wir freuen uns über Beiträge zu RealtimeTTS! Hier sind einige Möglichkeiten, wie Sie dazu beitragen können:

    +
      +
    1. +

      Berichterstattung über Fehler: Wenn Sie einen Fehler finden, öffnen Sie bitte ein Problem in unserem [GitHub-Repository] (https://github.com/KoljaB/RealtimeTTS/issues).

      +
    2. +
    3. +

      ** Verbesserungsvorschläge**: Haben Sie Ideen für neue Funktionen oder Verbesserungen? Wir würden sie gerne hören! Öffnen Sie eine Ausgabe, um Verbesserungen vorzuschlagen.

      +
    4. +
    5. +

      Code Beiträge: Möchten Sie eine neue Funktion hinzufügen oder einen Fehler beheben? Super! Bitte folgen Sie diesen Schritten:

      +
    6. +
    7. Forken Sie das Repository
    8. +
    9. Erstellen Sie einen neuen Zweig für Ihre Funktion
    10. +
    11. Nehmen Sie Ihre Änderungen vor
    12. +
    13. +

      Senden Sie eine Pull-Anfrage mit einer klaren Beschreibung Ihrer Änderungen

      +
    14. +
    15. +

      Dokumentation: Helfen Sie uns, unsere Dokumentation zu verbessern, indem Sie Tippfehler reparieren, Beispiele hinzufügen oder verwirrende Abschnitte klären.

      +
    16. +
    17. +

      ** Hinzufügen neuer Motoren**: Wenn Sie Unterstützung für eine neue TTS-Engine hinzufügen möchten, öffnen Sie bitte zuerst eine Ausgabe, um die Implementierung zu besprechen.

      +
    18. +
    +

    Vielen Dank, dass Sie dazu beigetragen haben, RealtimeTTS besser zu machen!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/de/faq/index.html b/it/de/faq/index.html new file mode 100755 index 0000000..9c30ae2 --- /dev/null +++ b/it/de/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Häufig gestellte Fragen

    +

    Antworten auf häufig gestellte Fragen zu RealtimeTTS finden Sie auf unserer [FAQ-Seite auf GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Diese Seite behandelt verschiedene Themen, darunter:

    +
      +
    • Verwendung verschiedener TTS-Motoren
    • +
    • Umgang mit mehrsprachigem Text
    • +
    • Leistungsoptimierung
    • +
    • Fehlerbehebung bei häufigen Problemen
    • +
    +

    Für genauere Informationen besuchen Sie bitte den obigen Link.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/de/index.html b/it/de/index.html new file mode 100755 index 0000000..e4d4937 --- /dev/null +++ b/it/de/index.html @@ -0,0 +1,1864 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +
      +
    • Einfach zu verwendende Text-to-Speech-Bibliothek mit geringer Latenz für Echtzeitanwendungen*
    • +
    +

    Über das Projekt

    +

    RealtimeTTS ist eine hochmoderne Text-to-Speech-Bibliothek (TTS), die für Echtzeitanwendungen entwickelt wurde. Es zeichnet sich durch seine Fähigkeit aus, Textströme schnell in hochwertige Hörausgaben mit minimaler Latenz umzuwandeln.

    +

    Hauptmerkmale

    +
      +
    • Niedrige Latenz: nahezu sofortige Text-zu-Sprache-Konvertierung, kompatibel mit LLM-Ausgaben
    • +
    • High-Quality Audio: erzeugt klare und natürlich klingende Sprache
    • +
    • Multiple TTS Engine Support: unterstützt OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS und System TTS
    • +
    • Mehrsprachig
    • +
    • Robust und zuverlässig: sorgt für einen kontinuierlichen Betrieb durch einen Rückfallmechanismus und wechselt bei Störungen zu alternativen Motoren, die eine gleichbleibende Leistung und Zuverlässigkeit gewährleisten
    • +
    +

    Für Installationsanweisungen, Nutzungsbeispiele und API-Referenzen navigieren Sie bitte über die Seitenleiste durch die Dokumentation.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/de/installation/index.html b/it/de/installation/index.html new file mode 100755 index 0000000..6d35680 --- /dev/null +++ b/it/de/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Deutsch

    + +
    +

    Hinweis: Die Basisinstallation mit pip install realtimetts wird nicht mehr empfohlen. Verwenden Sie stattdessen pip install realtimetts[all].

    +
    +

    Die RealtimeTTS-Bibliothek bietet verschiedene Installationsoptionen für Abhängigkeiten je nach Anwendungsfall. Hier sind die verschiedenen Möglichkeiten, RealtimeTTS entsprechend Ihren Anforderungen zu installieren:

    +

    Vollständige Installation

    +

    Um RealtimeTTS mit Unterstützung für alle TTS-Engines zu installieren:

    +
    pip install -U realtimetts[all]
    +
    +

    Benutzerdefinierte Installation

    +

    RealtimeTTS ermöglicht eine benutzerdefinierte Installation mit minimalen Bibliotheksinstallationen. Folgende Optionen stehen zur Verfügung: +- all: Vollständige Installation mit Unterstützung aller Engines. +- system: Enthält systemspezifische TTS-Fähigkeiten (z.B. pyttsx3). +- azure: Fügt Azure Cognitive Services Speech-Unterstützung hinzu. +- elevenlabs: Enthält Integration mit der ElevenLabs API. +- openai: Für OpenAI-Sprachdienste. +- gtts: Google Text-to-Speech-Unterstützung. +- coqui: Installiert die Coqui TTS-Engine. +- minimal: Installiert nur die Basisanforderungen ohne Engine (nur erforderlich, wenn Sie eine eigene Engine entwickeln möchten)

    +

    Wenn Sie RealtimeTTS nur für die lokale neuronale Coqui TTS-Nutzung installieren möchten, verwenden Sie:

    +
    pip install realtimetts[coqui]
    +
    +

    Wenn Sie beispielsweise RealtimeTTS nur mit Azure Cognitive Services Speech, ElevenLabs und OpenAI-Unterstützung installieren möchten:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installation in virtueller Umgebung

    +

    Für diejenigen, die eine vollständige Installation in einer virtuellen Umgebung durchführen möchten, folgen Sie diesen Schritten:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Weitere Informationen zur CUDA-Installation.

    +

    Engine-Anforderungen

    +

    Verschiedene von RealtimeTTS unterstützte Engines haben spezifische Anforderungen. Stellen Sie sicher, dass Sie diese Anforderungen je nach gewählter Engine erfüllen.

    +

    SystemEngine

    +

    Die SystemEngine funktioniert von Haus aus mit den integrierten TTS-Fähigkeiten Ihres Systems. Keine zusätzliche Einrichtung erforderlich.

    +

    GTTSEngine

    +

    Die GTTSEngine funktioniert von Haus aus mit der Google Translate Text-to-Speech API. Keine zusätzliche Einrichtung erforderlich.

    +

    OpenAIEngine

    +

    Zur Verwendung der OpenAIEngine: +- Umgebungsvariable OPENAI_API_KEY setzen +- ffmpeg installieren (siehe CUDA-Installation Punkt 3)

    +

    AzureEngine

    +

    Für die Verwendung der AzureEngine benötigen Sie: +- Microsoft Azure Text-to-Speech API-Schlüssel (bereitgestellt über den AzureEngine-Konstruktorparameter "speech_key" oder in der Umgebungsvariable AZURE_SPEECH_KEY) +- Microsoft Azure Service-Region

    +

    Stellen Sie sicher, dass diese Anmeldedaten verfügbar und korrekt konfiguriert sind, wenn Sie die AzureEngine initialisieren.

    +

    ElevenlabsEngine

    +

    Für die ElevenlabsEngine benötigen Sie: +- Elevenlabs API-Schlüssel (bereitgestellt über den ElevenlabsEngine-Konstruktorparameter "api_key" oder in der Umgebungsvariable ELEVENLABS_API_KEY) +- mpv auf Ihrem System installiert (wesentlich für das Streaming von MPEG-Audio, Elevenlabs liefert nur MPEG)

    +

    🔹 Installation von mpv: + - macOS: + brew install mpv

    +
      +
    • Linux und Windows: Besuchen Sie mpv.io für Installationsanweisungen.
    • +
    +

    CoquiEngine

    +

    Bietet hochwertige, lokale, neuronale TTS mit Stimmklonen.

    +

    Lädt zuerst ein neurales TTS-Modell herunter. In den meisten Fällen ist es mit GPU-Synthese schnell genug für Echtzeit. Benötigt etwa 4-5 GB VRAM.

    +
      +
    • Um eine Stimme zu klonen, übergeben Sie den Dateinamen einer Wave-Datei, die die Quellstimme enthält, als "voice"-Parameter an den CoquiEngine-Konstruktor
    • +
    • Stimmklonen funktioniert am besten mit einer 22050 Hz Mono 16bit WAV-Datei, die eine kurze (~5-30 Sek.) Probe enthält
    • +
    +

    Auf den meisten Systemen wird GPU-Unterstützung benötigt, um schnell genug für Echtzeit zu sein, andernfalls werden Sie Stottern erleben.

    +

    CUDA-Installation

    +

    Diese Schritte werden für diejenigen empfohlen, die bessere Leistung benötigen und eine kompatible NVIDIA GPU haben.

    +
    +

    Hinweis: Um zu überprüfen, ob Ihre NVIDIA GPU CUDA unterstützt, besuchen Sie die offizielle CUDA GPUs-Liste.

    +
    +

    Um torch mit CUDA-Unterstützung zu verwenden, folgen Sie bitte diesen Schritten:

    +
    +

    Hinweis: Neuere PyTorch-Installationen könnten (unbestätigt) keine Toolkit (und möglicherweise cuDNN) Installation mehr benötigen.

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkit installieren: + Um beispielsweise Toolkit 12.X zu installieren:

      +
        +
      • Besuchen Sie NVIDIA CUDA Downloads.
      • +
      • Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version.
      • +
      • Laden Sie die Software herunter und installieren Sie sie.
      • +
      +

      oder um Toolkit 11.8 zu installieren: +- Besuchen Sie NVIDIA CUDA Toolkit Archive. +- Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version. +- Laden Sie die Software herunter und installieren Sie sie.

      +
    2. +
    3. +

      NVIDIA cuDNN installieren:

      +

      Um beispielsweise cuDNN 8.7.0 für CUDA 11.x zu installieren: +- Besuchen Sie NVIDIA cuDNN Archive. +- Klicken Sie auf "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Laden Sie die Software herunter und installieren Sie sie.

      +
    4. +
    5. +

      ffmpeg installieren:

      +

      Sie können einen Installer für Ihr Betriebssystem von der ffmpeg Website herunterladen.

      +

      Oder verwenden Sie einen Paketmanager:

      +
        +
      • +

        Unter Ubuntu oder Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Unter Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Unter MacOS mit Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Unter Windows mit Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Unter Windows mit Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      PyTorch mit CUDA-Unterstützung installieren:

      +

      Um Ihre PyTorch-Installation zu aktualisieren und GPU-Unterstützung mit CUDA zu aktivieren, folgen Sie diesen Anweisungen basierend auf Ihrer spezifischen CUDA-Version. Dies ist nützlich, wenn Sie die Leistung von RealtimeSTT mit CUDA-Fähigkeiten verbessern möchten.

      +
        +
      • +

        Für CUDA 11.8:

        +

        Um PyTorch und Torchaudio für CUDA 11.8-Unterstützung zu aktualisieren, verwenden Sie folgende Befehle:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Für CUDA 12.X:

        +

        Um PyTorch und Torchaudio für CUDA 12.X-Unterstützung zu aktualisieren, führen Sie Folgendes aus:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Ersetzen Sie 2.3.1 durch die Version von PyTorch, die Ihrem System und Ihren Anforderungen entspricht.

      +
    8. +
    9. +

      Behebung von Kompatibilitätsproblemen: + Wenn Sie auf Bibliotheks-Kompatibilitätsprobleme stoßen, versuchen Sie, diese Bibliotheken auf feste Versionen zu setzen:

      +
    10. +
    +

    `

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    `

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/de/usage/index.html b/it/de/usage/index.html new file mode 100755 index 0000000..a1a50cb --- /dev/null +++ b/it/de/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Verwendung

    +

    Schnellstart

    +

    Hier ist ein grundlegendes Beispiel:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # ersetzen Sie dies mit Ihrer TTS-Engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Text Einspeisung

    +

    Sie können einzelne Zeichenketten einspeisen:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oder Sie können Generatoren und Zeichen-Iteratoren für Echtzeit-Streaming verwenden:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Wiedergabe

    +

    Asynchron:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchron:

    +
    stream.play()
    +
    +

    Testen der Bibliothek

    +

    Das Test-Unterverzeichnis enthält eine Reihe von Skripten, die Ihnen helfen, die Fähigkeiten der RealtimeTTS-Bibliothek zu bewerten und zu verstehen.

    +

    Beachten Sie, dass die meisten Tests noch auf der "alten" OpenAI API (<1.0.0) basieren. Die Verwendung der neuen OpenAI API wird in openai_1.0_test.py demonstriert.

    +
      +
    • +

      simple_test.py

      +
        +
      • Beschreibung: Eine "Hello World"-ähnliche Demonstration der einfachsten Bibliotheksnutzung.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Beschreibung: Eine umfassende Demonstration der meisten Funktionen der Bibliothek.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Beschreibung: Test der lokalen Coqui TTS-Engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Echtzeitübersetzungen in sechs verschiedene Sprachen.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Durch Aktivierungswort gesteuerte und sprachbasierte Benutzeroberfläche für die OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai keyboard realtimestt aus.
      • +
      • Beschreibung: Wählen Sie TTS-Engine und Stimme vor Beginn der KI-Konversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Ein grundlegender Sprachbot in 20 Codezeilen.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Einfache Demonstration der Integration der Bibliothek mit Large Language Models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Zeigt die Callbacks und lässt Sie die Latenzzeiten in einer realen Anwendungsumgebung überprüfen.
      • +
      +
    • +
    +

    Pause, Fortsetzen & Stoppen

    +

    Audiostream pausieren:

    +
    stream.pause()
    +
    +

    Pausierten Stream fortsetzen:

    +
    stream.resume()
    +
    +

    Stream sofort stoppen:

    +
    stream.stop()
    +
    +

    Erläuterung der Anforderungen

    +
      +
    • Python Version:
    • +
    • Erforderlich: Python >= 3.9, < 3.13
    • +
    • +

      Grund: Die Bibliothek hängt von der GitHub-Bibliothek "TTS" von Coqui ab, die Python-Versionen in diesem Bereich erfordert.

      +
    • +
    • +

      PyAudio: zur Erstellung eines Audio-Ausgabestreams

      +
    • +
    • +

      stream2sentence: zum Aufteilen des eingehenden Textstreams in Sätze

      +
    • +
    • +

      pyttsx3: System Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      pydub: zur Konvertierung von Audio-Chunk-Formaten

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS Text-to-Speech Bibliothek für hochwertige lokale neuronale TTS

      +
    • +
    +

    Dank an das Idiap Research Institute für die Pflege eines Forks von Coqui TTS.

    +
      +
    • +

      openai: zur Interaktion mit der OpenAI TTS API

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech Konvertierung

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/en/api/index.html b/it/en/api/index.html new file mode 100755 index 0000000..a40bf31 --- /dev/null +++ b/it/en/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    English

    + +

    Configuration

    +

    Initialization Parameters for TextToAudioStream

    +

    When you initialize the TextToAudioStream class, you have various options to customize its behavior. Here are the available parameters:

    +

    engine (BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Required: Yes
    • +
    • Description: The underlying engine responsible for text-to-audio synthesis. You must provide an instance of BaseEngine or its subclass to enable audio synthesis.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is triggered when the text stream begins. Use it for any setup or logging you may need.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is activated when the text stream ends. You can use this for cleanup tasks or logging.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is invoked when the audio stream starts. Useful for UI updates or event logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when the audio stream stops. Ideal for resource cleanup or post-processing tasks.
    • +
    +

    on_character (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when a single character is processed.
    • +
    +

    output_device_index (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: None
    • +
    • Description: Specifies the output device index to use. None uses the default device.
    • +
    +

    tokenizer (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: nltk
    • +
    • Description: Tokenizer to use for sentence splitting (currently "nltk" and "stanza" are supported).
    • +
    +

    language (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: en
    • +
    • Description: Language to use for sentence splitting.
    • +
    +

    muted (bool)

    +
      +
    • Type: Bool
    • +
    • Required: No
    • +
    • Default: False
    • +
    • Description: Global muted parameter. If True, no pyAudio stream will be opened. Disables audio playback via local speakers (in case you want to synthesize to file or process audio chunks) and overrides the play parameters muted setting.
    • +
    +

    level (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: logging.WARNING
    • +
    • Description: Sets the logging level for the internal logger. This can be any integer constant from Python's built-in logging module.
    • +
    +

    Example Usage:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methods

    +

    play and play_async

    +

    These methods are responsible for executing the text-to-audio synthesis and playing the audio stream. The difference is that play is a blocking function, while play_async runs in a separate thread, allowing other operations to proceed.

    +
    Parameters:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Description: When set to True, the method will prioritize speed, generating and playing sentence fragments faster. This is useful for applications where latency matters.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, applies the fast sentence fragment processing to all sentences, not just the first one.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, allows yielding multiple sentence fragments instead of just a single one.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Description: Specifies the time in seconds for the buffering threshold, which impacts the smoothness and continuity of audio playback.

      +
    • +
    • +

      How it Works: Before synthesizing a new sentence, the system checks if there is more audio material left in the buffer than the time specified by buffer_threshold_seconds. If so, it retrieves another sentence from the text generator, assuming that it can fetch and synthesize this new sentence within the time window provided by the remaining audio in the buffer. This process allows the text-to-speech engine to have more context for better synthesis, enhancing the user experience.

      +
    • +
    +

    A higher value ensures that there's more pre-buffered audio, reducing the likelihood of silence or gaps during playback. If you experience breaks or pauses, consider increasing this value.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Description: Sets the minimum character length to consider a string as a sentence to be synthesized. This affects how text chunks are processed and played.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Description: The minimum number of characters required for the first sentence fragment before yielding.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Description: When enabled, logs the text chunks as they are synthesized into audio. Helpful for auditing and debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Description: If True, reset the generated text before processing.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Description: If set, save the audio to the specified WAV file.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called after a single sentence fragment was synthesized.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called before a single sentence fragment gets synthesized.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Description: Callback function that gets called when a single audio chunk is ready.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Description: Tokenizer to use for sentence splitting. Currently supports "nltk" and "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Description: A custom function that tokenizes sentences from the input text. You can provide your own lightweight tokenizer if you are unhappy with nltk and stanza. It should take text as a string and return split sentences as a list of strings.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Description: Language to use for sentence splitting.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Description: The number of characters used to establish context for sentence boundary detection. A larger context improves the accuracy of detecting sentence boundaries.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Description: Additional context size for looking ahead when detecting sentence boundaries.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Description: If True, disables audio playback via local speakers. Useful when you want to synthesize to a file or process audio chunks without playing them.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Description: A string of characters that are considered sentence delimiters.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Description: The number of words after which the first sentence fragment is forced to be yielded.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/en/contributing/index.html b/it/en/contributing/index.html new file mode 100755 index 0000000..7f1b093 --- /dev/null +++ b/it/en/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contributing to RealtimeTTS

    +

    We welcome contributions to RealtimeTTS! Here are some ways you can contribute:

    +
      +
    1. +

      Reporting Bugs: If you find a bug, please open an issue on our GitHub repository.

      +
    2. +
    3. +

      Suggesting Enhancements: Have ideas for new features or improvements? We'd love to hear them! Open an issue to suggest enhancements.

      +
    4. +
    5. +

      Code Contributions: Want to add a new feature or fix a bug? Great! Please follow these steps:

      +
    6. +
    7. Fork the repository
    8. +
    9. Create a new branch for your feature
    10. +
    11. Make your changes
    12. +
    13. +

      Submit a pull request with a clear description of your changes

      +
    14. +
    15. +

      Documentation: Help us improve our documentation by fixing typos, adding examples, or clarifying confusing sections.

      +
    16. +
    17. +

      Adding New Engines: If you want to add support for a new TTS engine, please open an issue first to discuss the implementation.

      +
    18. +
    +

    Thank you for helping make RealtimeTTS better!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/en/faq/index.html b/it/en/faq/index.html new file mode 100755 index 0000000..ff4aad3 --- /dev/null +++ b/it/en/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Frequently Asked Questions

    +

    For answers to frequently asked questions about RealtimeTTS, please refer to our FAQ page on GitHub.

    +

    This page covers various topics including:

    +
      +
    • Usage of different TTS engines
    • +
    • Handling of multilingual text
    • +
    • Performance optimization
    • +
    • Troubleshooting common issues
    • +
    +

    For more detailed information, please visit the link above.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/en/index.html b/it/en/index.html new file mode 100755 index 0000000..9886bbe --- /dev/null +++ b/it/en/index.html @@ -0,0 +1,1934 @@ + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Easy to use, low-latency text-to-speech library for realtime applications

    +

    About the Project

    +

    RealtimeTTS is a state-of-the-art text-to-speech (TTS) library designed for real-time applications. It stands out in its ability to convert text streams fast into high-quality auditory output with minimal latency.

    +

    Key Features

    +
      +
    • Low Latency: almost instantaneous text-to-speech conversion, compatible with LLM outputs
    • +
    • High-Quality Audio: generates clear and natural-sounding speech
    • +
    • Multiple TTS Engine Support: supports OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS and System TTS
    • +
    • Multilingual
    • +
    • Robust and Reliable: ensures continuous operation through a fallback mechanism, switches to alternative engines in case of disruptions guaranteeing consistent performance and reliability
    • +
    +

    For installation instructions, usage examples, and API reference, please navigate through the documentation using the sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/en/installation/index.html b/it/en/installation/index.html new file mode 100755 index 0000000..d916789 --- /dev/null +++ b/it/en/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    English

    + +
    +

    Note: Basic Installation with pip install realtimetts is not recommended anymore, use pip install realtimetts[all] instead.

    +
    +

    The RealtimeTTS library provides installation options for various dependencies for your use case. Here are the different ways you can install RealtimeTTS depending on your needs:

    +

    Full Installation

    +

    To install RealtimeTTS with support for all TTS engines:

    +
    pip install -U realtimetts[all]
    +
    +

    Custom Installation

    +

    RealtimeTTS allows for custom installation with minimal library installations. Here are the options available: +- all: Full installation with every engine supported. +- system: Includes system-specific TTS capabilities (e.g., pyttsx3). +- azure: Adds Azure Cognitive Services Speech support. +- elevenlabs: Includes integration with ElevenLabs API. +- openai: For OpenAI voice services. +- gtts: Google Text-to-Speech support. +- coqui: Installs the Coqui TTS engine. +- minimal: Installs only the base requirements with no engine (only needed if you want to develop an own engine)

    +

    Say you want to install RealtimeTTS only for local neuronal Coqui TTS usage, then you should use:

    +
    pip install realtimetts[coqui]
    +
    +

    For example, if you want to install RealtimeTTS with only Azure Cognitive Services Speech, ElevenLabs, and OpenAI support:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Virtual Environment Installation

    +

    For those who want to perform a full installation within a virtual environment, follow these steps:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    More information about CUDA installation.

    +

    Engine Requirements

    +

    Different engines supported by RealtimeTTS have unique requirements. Ensure you fulfill these requirements based on the engine you choose.

    +

    SystemEngine

    +

    The SystemEngine works out of the box with your system's built-in TTS capabilities. No additional setup is needed.

    +

    GTTSEngine

    +

    The GTTSEngine works out of the box using Google Translate's text-to-speech API. No additional setup is needed.

    +

    OpenAIEngine

    +

    To use the OpenAIEngine: +- set environment variable OPENAI_API_KEY +- install ffmpeg (see CUDA installation point 3)

    +

    AzureEngine

    +

    To use the AzureEngine, you will need: +- Microsoft Azure Text-to-Speech API key (provided via AzureEngine constructor parameter "speech_key" or in the environment variable AZURE_SPEECH_KEY) +- Microsoft Azure service region.

    +

    Make sure you have these credentials available and correctly configured when initializing the AzureEngine.

    +

    ElevenlabsEngine

    +

    For the ElevenlabsEngine, you need: +- Elevenlabs API key (provided via ElevenlabsEngine constructor parameter "api_key" or in the environment variable ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 Installing mpv: + - macOS: + brew install mpv

    +
      +
    • Linux and Windows: Visit mpv.io for installation instructions.
    • +
    +

    CoquiEngine

    +

    Delivers high quality, local, neural TTS with voice-cloning.

    +

    Downloads a neural TTS model first. In most cases it be fast enough for Realtime using GPU synthesis. Needs around 4-5 GB VRAM.

    +
      +
    • to clone a voice submit the filename of a wave file containing the source voice as "voice" parameter to the CoquiEngine constructor
    • +
    • voice cloning works best with a 22050 Hz mono 16bit WAV file containing a short (~5-30 sec) sample
    • +
    +

    On most systems GPU support will be needed to run fast enough for realtime, otherwise you will experience stuttering.

    +

    CUDA installation

    +

    These steps are recommended for those who require better performance and have a compatible NVIDIA GPU.

    +
    +

    Note: to check if your NVIDIA GPU supports CUDA, visit the official CUDA GPUs list.

    +
    +

    To use a torch with support via CUDA please follow these steps:

    +
    +

    Note: newer pytorch installations may (unverified) not need Toolkit (and possibly cuDNN) installation anymore.

    +
    +
      +
    1. +

      Install NVIDIA CUDA Toolkit: + For example, to install Toolkit 12.X, please

      +
        +
      • Visit NVIDIA CUDA Downloads.
      • +
      • Select your operating system, system architecture, and os version.
      • +
      • Download and install the software.
      • +
      +

      or to install Toolkit 11.8, please +- Visit NVIDIA CUDA Toolkit Archive. +- Select your operating system, system architecture, and os version. +- Download and install the software.

      +
    2. +
    3. +

      Install NVIDIA cuDNN:

      +

      For example, to install cuDNN 8.7.0 for CUDA 11.x please +- Visit NVIDIA cuDNN Archive. +- Click on "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Download and install the software.

      +
    4. +
    5. +

      Install ffmpeg:

      +

      You can download an installer for your OS from the ffmpeg Website.

      +

      Or use a package manager:

      +
        +
      • +

        On Ubuntu or Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        On Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        On MacOS using Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        On Windows using Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        On Windows using Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Install PyTorch with CUDA support:

      +

      To upgrade your PyTorch installation to enable GPU support with CUDA, follow these instructions based on your specific CUDA version. This is useful if you wish to enhance the performance of RealtimeSTT with CUDA capabilities.

      +
        +
      • +

        For CUDA 11.8:

        +

        To update PyTorch and Torchaudio to support CUDA 11.8, use the following commands:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        For CUDA 12.X:

        +

        To update PyTorch and Torchaudio to support CUDA 12.X, execute the following:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Replace 2.3.1 with the version of PyTorch that matches your system and requirements.

      +
    8. +
    9. +

      Fix for to resolve compatibility issues: + If you run into library compatibility issues, try setting these libraries to fixed versions:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/en/usage/index.html b/it/en/usage/index.html new file mode 100755 index 0000000..2bb9e40 --- /dev/null +++ b/it/en/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Usage

    +

    Quick Start

    +

    Here's a basic usage example:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Feed Text

    +

    You can feed individual strings:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Or you can feed generators and character iterators for real-time streaming:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Playback

    +

    Asynchronously:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchronously:

    +
    stream.play()
    +
    +

    Testing the Library

    +

    The test subdirectory contains a set of scripts to help you evaluate and understand the capabilities of the RealtimeTTS library.

    +

    Note that most of the tests still rely on the "old" OpenAI API (<1.0.0). Usage of the new OpenAI API is demonstrated in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description: A "hello world" styled demonstration of the library's simplest usage.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description: A comprehensive demonstration showcasing most of the features provided by the library.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description: Test of local coqui TTS engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Real-time translations into six different languages.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Wake word activated and voice based user interface to the OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencies: Run pip install openai keyboard realtimestt.
      • +
      • Description: Choose TTS engine and voice before starting AI conversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: A basic talkbot in 20 lines of code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Simple demonstration of how to integrate the library with large language models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Showcases the callbacks and lets you check the latency times in a real-world application environment.
      • +
      +
    • +
    +

    Pause, Resume & Stop

    +

    Pause the audio stream:

    +
    stream.pause()
    +
    +

    Resume a paused stream:

    +
    stream.resume()
    +
    +

    Stop the stream immediately:

    +
    stream.stop()
    +
    +

    Requirements Explained

    +
      +
    • Python Version:
    • +
    • Required: Python >= 3.9, < 3.13
    • +
    • +

      Reason: The library depends on the GitHub library "TTS" from coqui, which requires Python versions in this range.

      +
    • +
    • +

      PyAudio: to create an output audio stream

      +
    • +
    • +

      stream2sentence: to split the incoming text stream into sentences

      +
    • +
    • +

      pyttsx3: System text-to-speech conversion engine

      +
    • +
    • +

      pydub: to convert audio chunk formats

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure text-to-speech conversion engine

      +
    • +
    • +

      elevenlabs: Elevenlabs text-to-speech conversion engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS text-to-speech library for high-quality local neural TTS

      +
    • +
    +

    Shoutout to Idiap Research Institute for maintaining a fork of coqui tts.

    +
      +
    • +

      openai: to interact with OpenAI's TTS API

      +
    • +
    • +

      gtts: Google translate text-to-speech conversion

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/es/api/index.html b/it/es/api/index.html new file mode 100755 index 0000000..fef0727 --- /dev/null +++ b/it/es/api/index.html @@ -0,0 +1,2922 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    TextToAudioStream - Documentación en Español

    +

    Configuración

    +

    Parámetros de Inicialización para TextToAudioStream

    +

    Cuando inicializa la clase TextToAudioStream, tiene varias opciones para personalizar su comportamiento. Aquí están los parámetros disponibles:

    +

    Parámetros Principales

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Requerido: Sí
    • +
    • Descripción: El motor subyacente responsable de la síntesis de texto a audio. Debe proporcionar una instancia de BaseEngine o su subclase para habilitar la síntesis de audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando comienza el flujo de texto. Utilícela para cualquier configuración o registro que pueda necesitar.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando finaliza el flujo de texto. Puede utilizarla para tareas de limpieza o registro.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se invoca cuando comienza el flujo de audio. Útil para actualizaciones de UI o registro de eventos.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se detiene el flujo de audio. Ideal para limpieza de recursos o tareas de post-procesamiento.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se procesa un solo carácter.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: None
    • +
    • Descripción: Especifica el índice del dispositivo de salida a utilizar. None usa el dispositivo predeterminado.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: nltk
    • +
    • Descripción: Tokenizador a utilizar para la división de oraciones (actualmente se admiten "nltk" y "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: en
    • +
    • Descripción: Idioma a utilizar para la división de oraciones.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Requerido: No
    • +
    • Valor predeterminado: False
    • +
    • Descripción: Parámetro global de silencio. Si es True, no se abrirá ningún flujo pyAudio. Deshabilita la reproducción de audio a través de los altavoces locales.
    • +
    +

    level (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: logging.WARNING
    • +
    • Descripción: Establece el nivel de registro para el registrador interno. Puede ser cualquier constante entera del módulo logging incorporado de Python.
    • +
    +

    Ejemplo de Uso

    +
    engine = YourEngine()  # Sustituya con su motor
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Métodos

    +

    play y play_async

    +

    Estos métodos son responsables de ejecutar la síntesis de texto a audio y reproducir el flujo de audio. La diferencia es que play es una función bloqueante, mientras que play_async se ejecuta en un hilo separado, permitiendo que otras operaciones continúen.

    +

    Parámetros de Reproducción

    +

    fast_sentence_fragment (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Cuando se establece en True, el método priorizará la velocidad, generando y reproduciendo fragmentos de oraciones más rápidamente.
    • +
    +

    fast_sentence_fragment_allsentences (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, aplica el procesamiento rápido de fragmentos de oraciones a todas las oraciones.
    • +
    +

    fast_sentence_fragment_allsentences_multiple (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, permite generar múltiples fragmentos de oraciones.
    • +
    +

    buffer_threshold_seconds (float)

    +
      +
    • Valor predeterminado: 0.0
    • +
    • Descripción: Especifica el tiempo en segundos para el umbral de búfer.
    • +
    +

    Cómo funciona: Antes de sintetizar una nueva oración, el sistema verifica si queda más material de audio en el búfer que el tiempo especificado. Un valor más alto asegura que haya más audio pre-almacenado en el búfer.

    +

    minimum_sentence_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: Establece la longitud mínima de caracteres para considerar una cadena como una oración.
    • +
    +

    minimum_first_fragment_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: El número mínimo de caracteres requeridos para el primer fragmento de oración.
    • +
    +

    log_synthesized_text (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando está habilitado, registra los fragmentos de texto sintetizados.
    • +
    +

    reset_generated_text (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Si es True, reinicia el texto generado antes del procesamiento.
    • +
    +

    output_wavfile (str)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Si se establece, guarda el audio en el archivo WAV especificado.
    • +
    +

    Funciones de Callback

    +

    on_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama después de sintetizar un fragmento de oración.
    • +
    +

    before_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama antes de sintetizar un fragmento de oración.
    • +
    +

    on_audio_chunk (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama cuando un fragmento de audio está listo.
    • +
    +

    Configuración de Tokenización

    +

    tokenizer (str)

    +
      +
    • Valor predeterminado: "nltk"
    • +
    • Descripción: Tokenizador para la división de oraciones. Admite "nltk" y "stanza".
    • +
    +

    tokenize_sentences (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Función personalizada para tokenizar oraciones del texto de entrada.
    • +
    +

    language (str)

    +
      +
    • Valor predeterminado: "en"
    • +
    • Descripción: Idioma para la división de oraciones.
    • +
    +

    Parámetros de Contexto

    +

    context_size (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Caracteres utilizados para establecer el contexto de límites de oraciones.
    • +
    +

    context_size_look_overhead (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Tamaño de contexto adicional para mirar hacia adelante.
    • +
    +

    Otros Parámetros

    +

    muted (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Deshabilita la reproducción de audio local si es True.
    • +
    +

    sentence_fragment_delimiters (str)

    +
      +
    • Valor predeterminado: ".?!;:,\n…)]}。-"
    • +
    • Descripción: Caracteres considerados como delimitadores de oraciones.
    • +
    +

    force_first_fragment_after_words (int)

    +
      +
    • Valor predeterminado: 15
    • +
    • Descripción: Número de palabras después de las cuales se fuerza el primer fragmento.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/es/contributing/index.html b/it/es/contributing/index.html new file mode 100755 index 0000000..bea8805 --- /dev/null +++ b/it/es/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuir a RealtimeTTS

    +

    Agradecemos cualquier contribución a RealtimeTTS. Aquí tienes algunas formas de contribuir:

    +
      +
    1. +

      Informar de errores: Si encuentras un error, por favor abre una incidencia en nuestro repositorio GitHub.

      +
    2. +
    3. +

      Sugerir mejoras: ¿Tienes ideas para nuevas funciones o mejoras? Nos encantaría escucharlas. Abre una incidencia para sugerir mejoras.

      +
    4. +
    5. +

      Contribuciones de código: ¿Quieres añadir una nueva función o corregir un error? ¡Perfecto! Sigue estos pasos:

      +
    6. +
    7. Abre el repositorio
    8. +
    9. Crea una nueva rama para tu función
    10. +
    11. Realice los cambios
    12. +
    13. +

      Envía un pull request con una descripción clara de tus cambios

      +
    14. +
    15. +

      Documentación: Ayúdanos a mejorar nuestra documentación corrigiendo erratas, añadiendo ejemplos o aclarando secciones confusas.

      +
    16. +
    17. +

      Añadir nuevos motores: Si quieres añadir soporte para un nuevo motor TTS, por favor abre una incidencia primero para discutir la implementación.

      +
    18. +
    +

    Gracias por ayudarnos a mejorar RealtimeTTS.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/es/faq/index.html b/it/es/faq/index.html new file mode 100755 index 0000000..c7c8258 --- /dev/null +++ b/it/es/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Preguntas frecuentes

    +

    Para obtener respuestas a las preguntas más frecuentes sobre RealtimeTTS, consulta nuestra página de preguntas frecuentes en GitHub.

    +

    Esta página cubre varios temas, entre ellos

    +
      +
    • Uso de diferentes motores TTS
    • +
    • Tratamiento de textos multilingües
    • +
    • Optimización del rendimiento
    • +
    • Solución de problemas comunes
    • +
    +

    Para obtener información más detallada, visite el enlace anterior.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/es/index.html b/it/es/index.html new file mode 100755 index 0000000..d2cb81c --- /dev/null +++ b/it/es/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    *Biblioteca de conversión de texto en voz fácil de usar y de baja latencia para aplicaciones en tiempo real.

    +

    Acerca del proyecto

    +

    RealtimeTTS es una biblioteca de texto a voz (TTS) de última generación diseñada para aplicaciones en tiempo real. Destaca por su capacidad para convertir rápidamente flujos de texto en salida auditiva de alta calidad con una latencia mínima.

    +

    Características principales

    +
      +
    • Baja latencia: conversión de texto a voz casi instantánea, compatible con salidas LLM.
    • +
    • Audio de alta calidad**: genera un habla clara y natural.
    • +
    • Compatible con múltiples motores TTS**: compatible con OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS y System TTS
    • +
    • Multilingüe
    • +
    • Robusto y fiable**: garantiza un funcionamiento continuo gracias a un mecanismo de reserva que cambia a motores alternativos en caso de interrupciones, lo que garantiza un rendimiento y una fiabilidad constantes.
    • +
    +

    Para obtener instrucciones de instalación, ejemplos de uso y referencias de la API, navegue por la documentación utilizando la barra lateral.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/es/installation/index.html b/it/es/installation/index.html new file mode 100755 index 0000000..08791b2 --- /dev/null +++ b/it/es/installation/index.html @@ -0,0 +1,2243 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Español

    + +
    +

    Nota: Ya no se recomienda la instalación básica con pip install realtimetts, use pip install realtimetts[all] en su lugar.

    +
    +

    La biblioteca RealtimeTTS proporciona opciones de instalación para varias dependencias según su caso de uso. Aquí están las diferentes formas en que puede instalar RealtimeTTS según sus necesidades:

    +

    Instalación Completa

    +

    Para instalar RealtimeTTS con soporte para todos los motores de TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Instalación Personalizada

    +

    RealtimeTTS permite una instalación personalizada con instalaciones mínimas de bibliotecas. Estas son las opciones disponibles: +- all: Instalación completa con todos los motores soportados. +- system: Incluye capacidades de TTS específicas del sistema (por ejemplo, pyttsx3). +- azure: Agrega soporte para Azure Cognitive Services Speech. +- elevenlabs: Incluye integración con la API de ElevenLabs. +- openai: Para servicios de voz de OpenAI. +- gtts: Soporte para Google Text-to-Speech. +- coqui: Instala el motor Coqui TTS. +- minimal: Instala solo los requisitos base sin motor (solo necesario si desea desarrollar un motor propio)

    +

    Por ejemplo, si desea instalar RealtimeTTS solo para uso local de Coqui TTS neuronal, debe usar:

    +
    pip install realtimetts[coqui]
    +
    +

    Si desea instalar RealtimeTTS solo con Azure Cognitive Services Speech, ElevenLabs y soporte de OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Instalación en Entorno Virtual

    +

    Para aquellos que deseen realizar una instalación completa dentro de un entorno virtual, sigan estos pasos:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Más información sobre instalación de CUDA.

    +

    Requisitos de los Motores

    +

    Los diferentes motores soportados por RealtimeTTS tienen requisitos únicos. Asegúrese de cumplir con estos requisitos según el motor que elija.

    +

    SystemEngine

    +

    El SystemEngine funciona de inmediato con las capacidades de TTS incorporadas en su sistema. No se necesita configuración adicional.

    +

    GTTSEngine

    +

    El GTTSEngine funciona de inmediato usando la API de texto a voz de Google Translate. No se necesita configuración adicional.

    +

    OpenAIEngine

    +

    Para usar el OpenAIEngine: +- configure la variable de entorno OPENAI_API_KEY +- instale ffmpeg (ver instalación de CUDA punto 3)

    +

    AzureEngine

    +

    Para usar el AzureEngine, necesitará: +- Clave API de Microsoft Azure Text-to-Speech (proporcionada a través del parámetro "speech_key" del constructor AzureEngine o en la variable de entorno AZURE_SPEECH_KEY) +- Región de servicio de Microsoft Azure.

    +

    Asegúrese de tener estas credenciales disponibles y correctamente configuradas al inicializar el AzureEngine.

    +

    ElevenlabsEngine

    +

    Para el ElevenlabsEngine, necesita: +- Clave API de Elevenlabs (proporcionada a través del parámetro "api_key" del constructor ElevenlabsEngine o en la variable de entorno ELEVENLABS_API_KEY) +- mpv instalado en su sistema (esencial para transmitir audio mpeg, Elevenlabs solo entrega mpeg).

    +

    🔹 Instalación de mpv: + - macOS: + brew install mpv

    +
      +
    • Linux y Windows: Visite mpv.io para instrucciones de instalación.
    • +
    +

    CoquiEngine

    +

    Proporciona TTS neuronal local de alta calidad con clonación de voz.

    +

    Descarga primero un modelo neuronal TTS. En la mayoría de los casos, será lo suficientemente rápido para tiempo real usando síntesis GPU. Necesita alrededor de 4-5 GB de VRAM.

    +
      +
    • para clonar una voz, envíe el nombre del archivo de un archivo wave que contenga la voz fuente como parámetro "voice" al constructor CoquiEngine
    • +
    • la clonación de voz funciona mejor con un archivo WAV mono de 16 bits a 22050 Hz que contenga una muestra corta (~5-30 seg)
    • +
    +

    En la mayoría de los sistemas, se necesitará soporte de GPU para ejecutarse lo suficientemente rápido en tiempo real, de lo contrario experimentará tartamudeo.

    +

    Instalación de CUDA

    +

    Estos pasos son recomendados para aquellos que requieren mejor rendimiento y tienen una GPU NVIDIA compatible.

    +
    +

    Nota: para verificar si su GPU NVIDIA es compatible con CUDA, visite la lista oficial de GPUs CUDA.

    +
    +

    Para usar torch con soporte vía CUDA, siga estos pasos:

    +
    +

    Nota: las instalaciones más nuevas de pytorch pueden (no verificado) no necesitar la instalación de Toolkit (y posiblemente cuDNN).

    +
    +
      +
    1. +

      Instalar NVIDIA CUDA Toolkit: + Por ejemplo, para instalar Toolkit 12.X, por favor

      +
        +
      • Visite NVIDIA CUDA Downloads.
      • +
      • Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo.
      • +
      • Descargue e instale el software.
      • +
      +

      o para instalar Toolkit 11.8, por favor +- Visite NVIDIA CUDA Toolkit Archive. +- Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo. +- Descargue e instale el software.

      +
    2. +
    3. +

      Instalar NVIDIA cuDNN:

      +

      Por ejemplo, para instalar cuDNN 8.7.0 para CUDA 11.x por favor +- Visite NVIDIA cuDNN Archive. +- Haga clic en "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Descargue e instale el software.

      +
    4. +
    5. +

      Instalar ffmpeg:

      +

      Puede descargar un instalador para su sistema operativo desde el sitio web de ffmpeg.

      +

      O usar un gestor de paquetes:

      +
        +
      • +

        En Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        En Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        En MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        En Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        En Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Instalar PyTorch con soporte CUDA:

      +

      Para actualizar su instalación de PyTorch y habilitar el soporte de GPU con CUDA, siga estas instrucciones según su versión específica de CUDA. Esto es útil si desea mejorar el rendimiento de RealtimeSTT con capacidades CUDA.

      +
        +
      • +

        Para CUDA 11.8:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 11.8, use los siguientes comandos:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Para CUDA 12.X:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 12.X, ejecute lo siguiente:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Reemplace 2.3.1 con la versión de PyTorch que coincida con su sistema y requisitos.

      +
    8. +
    9. +

      Solución para resolver problemas de compatibilidad: + Si encuentra problemas de compatibilidad de bibliotecas, intente establecer estas bibliotecas en versiones fijas:

      +

      pip install networkx==2.8.8 +pip install typing_extensions==4.8.0 +pip install fsspec==2023.6.0 +pip install imageio==2.31.6 +pip install networkx==2.8.8 +pip install numpy==1.24.3 +pip install requests==2.31.0

      +
    10. +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/es/usage/index.html b/it/es/usage/index.html new file mode 100755 index 0000000..10ea687 --- /dev/null +++ b/it/es/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Uso

    +

    Inicio Rápido

    +

    Aquí hay un ejemplo básico de uso:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Alimentar Texto

    +

    Puede alimentar cadenas individuales:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    O puede alimentar generadores e iteradores de caracteres para la transmisión en tiempo real:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Reproducción

    +

    De forma asíncrona:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    De forma síncrona:

    +
    stream.play()
    +
    +

    Prueba de la Biblioteca

    +

    El subdirectorio de pruebas contiene un conjunto de scripts para ayudarte a evaluar y comprender las capacidades de la biblioteca RealtimeTTS.

    +

    Ten en cuenta que la mayoría de las pruebas aún dependen de la API "antigua" de OpenAI (<1.0.0). El uso de la nueva API de OpenAI se demuestra en openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descripción: Una demostración tipo "hola mundo" del uso más simple de la biblioteca.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descripción: Una demostración completa que muestra la mayoría de las características proporcionadas por la biblioteca.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descripción: Prueba del motor local coqui TTS.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Traducciones en tiempo real a seis idiomas diferentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Interfaz de usuario activada por palabra clave y basada en voz para la API de OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencias: Ejecutar pip install openai keyboard realtimestt.
      • +
      • Descripción: Elija el motor TTS y la voz antes de iniciar la conversación con IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Un talkbot básico en 20 líneas de código.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Demostración simple de cómo integrar la biblioteca con modelos de lenguaje grande (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Muestra los callbacks y te permite verificar los tiempos de latencia en un entorno de aplicación del mundo real.
      • +
      +
    • +
    +

    Pausar, Reanudar y Detener

    +

    Pausar el flujo de audio:

    +
    stream.pause()
    +
    +

    Reanudar un flujo pausado:

    +
    stream.resume()
    +
    +

    Detener el flujo inmediatamente:

    +
    stream.stop()
    +
    +

    Requisitos Explicados

    +
      +
    • Versión de Python:
    • +
    • Requerido: Python >= 3.9, < 3.13
    • +
    • +

      Razón: La biblioteca depende de la biblioteca GitHub "TTS" de coqui, que requiere versiones de Python en este rango.

      +
    • +
    • +

      PyAudio: para crear un flujo de audio de salida

      +
    • +
    • +

      stream2sentence: para dividir el flujo de texto entrante en oraciones

      +
    • +
    • +

      pyttsx3: Motor de conversión de texto a voz del sistema

      +
    • +
    • +

      pydub: para convertir formatos de fragmentos de audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motor de conversión de texto a voz de Azure

      +
    • +
    • +

      elevenlabs: Motor de conversión de texto a voz de Elevenlabs

      +
    • +
    • +

      coqui-TTS: Biblioteca de texto a voz XTTS de Coqui para TTS neuronal local de alta calidad

      +
    • +
    +

    Agradecimiento especial al Instituto de Investigación Idiap por mantener un fork de coqui tts.

    +
      +
    • +

      openai: para interactuar con la API TTS de OpenAI

      +
    • +
    • +

      gtts: Conversión de texto a voz de Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/faq/index.html b/it/faq/index.html new file mode 100755 index 0000000..b8494b9 --- /dev/null +++ b/it/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Domande frequenti

    +

    Per le risposte alle domande più frequenti su RealtimeTTS, fare riferimento alla nostra [pagina FAQ su GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Questa pagina tratta vari argomenti tra cui

    +
      +
    • Utilizzo di diversi motori TTS
    • +
    • Gestione del testo multilingue
    • +
    • Ottimizzazione delle prestazioni
    • +
    • Risoluzione dei problemi comuni
    • +
    +

    Per informazioni più dettagliate, visitare il link sopra.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/fr/api/index.html b/it/fr/api/index.html new file mode 100755 index 0000000..2413b63 --- /dev/null +++ b/it/fr/api/index.html @@ -0,0 +1,2839 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Français

    + +

    Configuration

    +

    Paramètres d'initialisation pour `TextToAudioStream

    +

    Lorsque vous initialisez la classe TextToAudioStream, vous disposez de diverses options pour personnaliser son comportement. Voici les paramètres disponibles :

    +

    `(BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Obligatoire: Oui
    • +
    • Description : Le moteur sous-jacent responsable de la synthèse texte-audio. Vous devez fournir une instance de ine ou sa sous-classe pour permettre la synthèse audio.
    • +
    +

    _text_stream_start (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est déclenchée lorsque le flux de texte commence. Utilisez-le pour toute configuration ou journalisation dont vous pourriez avoir besoin.
    • +
    +

    _text_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est activée à la fin du flux de texte. Vous pouvez l'utiliser pour des tâches de nettoyage ou de journalisation.
    • +
    +

    _audio_stream_start` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel facultative est invoquée au démarrage du flux audio. Utile pour les mises à jour de l'interface utilisateur ou la journalisation des événements.
    • +
    +

    _audio_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsque le flux audio s'arrête. Idéal pour les tâches de nettoyage des ressources ou de post-traitement.
    • +
    +

    on_character` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsqu'un seul caractère est traité.
    • +
    +

    _device_index (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Aucun
    • +
    • Description : Spécifie l'index du périphérique de sortie à utiliser. Aucun n'utilise le périphérique par défaut.
    • +
    +

    (tokenizer(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: nltk
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases (actuellement « nltk » et « stroza » sont pris en charge).
    • +
    +

    `language(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: fr
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +

    muted(bool)

    +
      +
    • Type: Bool
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Faux
    • +
    • Description : Paramètre global coupé. Si True, aucun flux pyAudio ne sera ouvert. Désactive la lecture audio via des haut-parleurs locaux (au cas où vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio) et remplace le paramètre de mise en sourdine des paramètres de lecture.
    • +
    +

    level (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Défaut:logging.AVERTISSEMENT
    • +
    • Description : Définit le niveau de journalisation pour l'enregistreur interne. Cela peut être n'importe quelle constante entière du module ging intégré de Python.
    • +
    +

    Exemple d'utilisation :

    +

    ``(`python +moteur = YourEngine () # Remplacez-vous par votre moteur +flux = TextToAudioStream( + moteur=engine, + on_text_stream_start=my_text_start_func, + on_text_stream_stop=my_text_stop_func, + on_audio_stream_start=my_audio_start_func, + on_audio_stream_stop=my_audio_stop_func, + niveau=logging.INFO +)

    +

    Méthodes

    +

    play etplay_async`

    +

    Ces méthodes sont responsables de l'exécution de la synthèse texte-audio et de la lecture du flux audio. La différence est que play est une fonction de blocage, tandis que play_async s'exécute dans un thread séparé, permettant à d'autres opérations de se poursuivre.

    +
    Paramètres :
    +
    fast_sentence_fragment (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Lorsqu'elle est définie sur True, la méthode donnera la priorité à la vitesse, générant et jouant plus rapidement des fragments de phrases. Ceci est utile pour les applications où la latence est importante.
    • +
    +
    fast_sentence_fragment_allsentences(bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, applique le traitement rapide des fragments de phrase à toutes les phrases, pas seulement à la première.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, permet de produire plusieurs fragments de phrase au lieu d'un seul.
    • +
    +
    _threshold_seconds (flotteur)
    +
      +
    • Par défaut: 0.0
    • +
    • +

      Description : Spécifie le temps en secondes pour le seuil de mise en mémoire tampon, ce qui a un impact sur la douceur et la continuité de la lecture audio.

      +
    • +
    • +

      Comment ça marche : Avant de synthétiser une nouvelle phrase, le système vérifie s'il reste plus de matériel audio dans le tampon que le temps spécifié par buffer_threshold_seconds. Si tel est le cas, il récupère une autre phrase du générateur de texte, en supposant qu'il peut récupérer et synthétiser cette nouvelle phrase dans la fenêtre temporelle fournie par l'audio restant dans le tampon. Ce processus permet au moteur de synthèse vocale d'avoir plus de contexte pour une meilleure synthèse, améliorant ainsi l'expérience utilisateur.

      +
    • +
    +

    Une valeur plus élevée garantit qu'il y a plus d'audio pré-tamponné, réduisant ainsi le risque de silence ou de lacunes pendant la lecture. Si vous rencontrez des pauses ou des pauses, envisagez d'augmenter cette valeur.

    +
    _sentence_length (int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Définit la longueur minimale des caractères pour considérer une chaîne comme une phrase à synthétiser. Cela affecte la façon dont les morceaux de texte sont traités et lus.
    • +
    +
    _first_fragment_length(int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Le nombre minimum de caractères requis pour le premier fragment de phrase avant de céder.
    • +
    +
    _synthesized_text (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est activé, enregistre les morceaux de texte au fur et à mesure de leur synthèse en audio. Utile pour l'audit et le débogage.
    • +
    +
    #reset_generated_text` (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Si Vrai, réinitialisez le texte généré avant le traitement.
    • +
    +
    _wavfile (str)
    +
      +
    • Par défaut: None
    • +
    • Description : Si défini, enregistrez l'audio dans le fichier WAV spécifié.
    • +
    +
    `_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel appelée après un seul fragment de phrase a été synthétisée.
    • +
    +
    before`_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel qui est appelée avant qu'un seul fragment de phrase ne soit synthétisé.
    • +
    +
    _audio_chunk (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Fonction de rappel qui est appelée lorsqu'un seul morceau audio est prêt.
    • +
    +
    ```(str)
    +
      +
    • Par défaut:"nltk"
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases. Prend actuellement en charge « nltk » et « stroza ».
    • +
    +
    _sentences (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction personnalisée qui tokenise les phrases du texte saisi. Vous pouvez fournir votre propre tokenizer léger si vous n'êtes pas satisfait de nltk et stanza. Il doit prendre du texte comme chaîne et renvoyer des phrases divisées comme liste de chaînes.
    • +
    +
    angu(str)
    +
      +
    • Par défaut:"en"
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +
    _size(int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Le nombre de caractères utilisés pour établir le contexte pour la détection des limites de phrase. Un contexte plus large améliore la précision de la détection des limites des phrases.
    • +
    +
    _size_look_overhead (int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Taille de contexte supplémentaire pour regarder vers l'avenir lors de la détection des limites des phrases.
    • +
    +
    mute (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Si vrai, désactive la lecture audio via des haut-parleurs locaux. Utile lorsque vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio sans les lire.
    • +
    +
    ence_fragment_delimiters (str)
    +
      +
    • Par défaut:"?!;::\n...)]}-
    • +
    • Description : Une chaîne de caractères qui sont considérés comme des délimiteurs de phrases.
    • +
    +
    _first_fragment_after_words (int)
    +
      +
    • Par défaut: 15
    • +
    • Description : Le nombre de mots après lesquels le fragment de la première phrase est forcé d'être donné.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/fr/contributing/index.html b/it/fr/contributing/index.html new file mode 100755 index 0000000..c6a2dfc --- /dev/null +++ b/it/fr/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuer à RealtimeTTS

    +

    Nous accueillons les contributions à RealtimeTTS ! Voici quelques façons dont vous pouvez contribuer :

    +
      +
    1. +

      Reporting Bugs : Si vous trouvez un bug, veuillez ouvrir un problème sur notre référentiel GitHub.

      +
    2. +
    3. +

      ** Suggestion d'améliorations** : Vous avez des idées de nouvelles fonctionnalités ou d'améliorations ? Nous serions ravis de les entendre ! Ouvrez un numéro pour suggérer des améliorations.

      +
    4. +
    5. +

      Code Contributions : Vous voulez ajouter une nouvelle fonctionnalité ou corriger un bug ? Super ! Veuillez suivre ces étapes :

      +
    6. +
    7. Fourcher le dépôt
    8. +
    9. Créez une nouvelle branche pour votre fonctionnalité
    10. +
    11. Faites vos changements
    12. +
    13. +

      Soumettez une demande pull avec une description claire de vos modifications

      +
    14. +
    15. +

      Documentation : Aidez-nous à améliorer notre documentation en corrigeant les fautes de frappe, en ajoutant des exemples ou en clarifiant les sections déroutantes.

      +
    16. +
    17. +

      Ajout de nouveaux moteurs : Si vous souhaitez ajouter la prise en charge d'un nouveau moteur TTS, veuillez d'abord ouvrir un numéro pour discuter de l'implémentation.

      +
    18. +
    +

    Merci d'avoir contribué à rendre RealtimeTTS meilleur !

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/fr/faq/index.html b/it/fr/faq/index.html new file mode 100755 index 0000000..27fec37 --- /dev/null +++ b/it/fr/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Foire aux questions

    +

    Pour les réponses aux questions fréquemment posées sur RealtimeTTS, veuillez vous référer à notre page FAQ sur GitHub.

    +

    Cette page couvre divers sujets dont

    +
      +
    • Utilisation de différents moteurs TTS
    • +
    • Manipulation de textes multilingues
    • +
    • Optimisation des performances
    • +
    • Dépannage des problèmes courants
    • +
    +

    Pour des informations plus détaillées, veuillez consulter le lien ci-dessus.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/fr/index.html b/it/fr/index.html new file mode 100755 index 0000000..d157d96 --- /dev/null +++ b/it/fr/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Bibliothèque de synthèse vocale à faible latence et facile à utiliser pour les applications en temps réel

    +

    À propos du projet

    +

    RealtimeTTS est une bibliothèque de synthèse vocale (TTS) de pointe conçue pour les applications en temps réel. Elle se distingue par sa capacité à convertir des flux de texte en sortie auditive de haute qualité avec une latence minimale.

    +

    Caractéristiques clés

    +
      +
    • Faible latence : conversion text-to-speech quasi-instantanée, compatible avec les sorties LLM
    • +
    • Audio de haute qualité : génère un discours clair et naturel
    • +
    • Support de plusieurs moteurs TTS : prend en charge OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS et System TTS
    • +
    • Multilingue
    • +
    • Robuste et fiable : garantit une opération continue grâce à un mécanisme de fallback, bascule vers des moteurs alternatifs en cas de perturbations, garantissant une performance et une fiabilité cohérentes
    • +
    +

    Pour les instructions d'installation, les exemples d'utilisation et la référence de l'API, veuillez naviguer à travers la documentation à l'aide du sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/fr/installation/index.html b/it/fr/installation/index.html new file mode 100755 index 0000000..18c2832 --- /dev/null +++ b/it/fr/installation/index.html @@ -0,0 +1,2270 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Français

    + +
    +

    Remarque: Installation de base avec pip install realtimettss n'est plus recommandé, utilisez pip install realtimetts[all] à la place.

    +
    +

    La bibliothèque RealtimeTTS offre des options d'installation pour diverses dépendances pour votre cas d'utilisation. Voici les différentes façons dont vous pouvez installer RealtimeTTS en fonction de vos besoins :

    +

    Installation complète

    +

    Pour installer RealtimeTTS avec prise en charge de tous les moteurs TTS :

    +

    pip install -U realtimetts [tous]

    +

    Installation personnalisée

    +

    RealtimeTTS permet une installation personnalisée avec un minimum d'installations de bibliothèque. Voici les options disponibles : +- all : Installation complète avec chaque moteur pris en charge. +- ** système : Inclut les capacités TTS spécifiques au système (par exemple, pyttsx3). +- azure : ajoute le support vocal Azure Cognitive Services. +- elevenlabs : Comprend l'intégration avec l'API ElevenLabs. +- openai : Pour les services vocaux OpenAI. +- gtts : Prise en charge de Google Text-to-Speech. +- coqui : Installe le moteur Coqui TTS. +- minimal** : installe uniquement les exigences de base sans moteur (nécessaire uniquement si vous souhaitez développer votre propre moteur)

    +

    Supposons que vous souhaitiez installer RealtimeTTS uniquement pour l'utilisation neuronale locale de Coqui TTS, vous devez alors utiliser :

    +

    pip installez realtimetts [coqui]

    +

    Par exemple, si vous souhaitez installer RealtimeTTS avec uniquement Azure Cognitive Services Speech, ElevenLabs et la prise en charge d'OpenAI :

    +

    pip installez realtimetts[azure,elevenlabs,openai]

    +

    Installation de l'environnement virtuel

    +

    Pour ceux qui souhaitent effectuer une installation complète dans un environnement virtuel, procédez comme suit

    +

    python - m venv env_realtimetts +env_realtimetts\Scripts\activate.bat +python.exe - m pip install - upgrade pip +pip install -U realtimetts [tous]

    +

    Plus d'informations sur installation CUDA.

    +

    Exigences du moteur

    +

    Différents moteurs pris en charge par RealtimeTTS ont des exigences uniques. Assurez-vous de remplir ces exigences en fonction du moteur que vous choisissez.

    +

    Moteur système

    +

    Le `SystemEngine fonctionne dès le départ avec les capacités TTS intégrées de votre système. Aucune configuration supplémentaire n'est nécessaire.

    +

    GTTSEngine

    +

    Le GTTSEngine fonctionne dès le départ à l'aide de l'API de synthèse vocale de Google Translate. Aucune configuration supplémentaire n'est nécessaire.

    +

    OpenAIEngine

    +

    Pour utiliser le ``(OpenAIE): +- définir la variable d'environnement OPENAI_API_KEY +- installer ffmpeg (voir installation CUDA point 3)

    +

    AzureEngine

    +

    Pour utiliser le ine, vous aurez besoin de : +- Clé API Microsoft Azure Text-to-Speech (fournie via le paramètre constructeur AzureEngine « speech_key » ou dans la variable d'environnement AZURE_SPEECH_KEY) +- Région de service Microsoft Azure.

    +

    Assurez-vous d'avoir ces informations d'identification disponibles et correctement configurées lors de l'initialisation du AzureEngine.

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    🔹 Installation v: + - macOS: + infuser installer mpv

    +
      +
    • Linux et Windows : Visitez mpv.io pour les instructions d'installation.
    • +
    +

    CoquiEngine

    +

    Offre un TTS neuronal local de haute qualité avec clonage vocal.

    +

    Télécharge d'abord un modèle TTS neuronal. Dans la plupart des cas, il est suffisamment rapide pour le temps réel utilisant la synthèse GPU. Nécessite environ 4 à 5 Go de VRAM.

    +
      +
    • pour cloner une voix, soumettez le nom de fichier d'un fichier d'onde contenant la voix source comme paramètre « voix » au constructeur CoquiEngine
    • +
    • le clonage vocal fonctionne mieux avec un fichier WAV mono 16 bits de 22 050 Hz contenant un échantillon court (~5 à 30 secondes)
    • +
    +

    Sur la plupart des systèmes, la prise en charge du GPU sera nécessaire pour fonctionner suffisamment rapidement en temps réel, sinon vous ferez l'expérience du bégaiement.

    +

    Installation CUDA

    +

    Ces étapes sont recommandées pour ceux qui ont besoin de ** meilleures performances ** et disposent d'un GPU NVIDIA compatible.

    +
    +

    Remarque : pour vérifier si votre GPU NVIDIA prend en charge CUDA, visitez la liste officielle des GPU CUDA.

    +
    +

    Pour utiliser une torche avec support via CUDA, veuillez suivre ces étapes :

    +
    +

    Remarque : les installations de pythorque plus récentes peuvent (non vérifié) n'ont plus besoin d'installation de Toolkit (et éventuellement de cuDNN).

    +
    +
      +
    1. +

      Installer NVIDIA CUDA Toolkit: + Par exemple, pour installer Toolkit 12.X, s'il te plaît

      +
        +
      • Visitez NVIDIA CUDA Téléchargements.
      • +
      • Sélectionnez votre système d'exploitation, votre architecture système et votre version os.
      • +
      • Téléchargez et installez le logiciel.
      • +
      +

      ou pour installer Toolkit 11.8, s'il vous plaît +- Visitez Archive de la boîte à outils CUDA NVIDIA. +- Sélectionnez votre système d'exploitation, votre architecture système et votre version os. +- Téléchargez et installez le logiciel.

      +
    2. +
    3. +

      Installer NVIDIA cuDNN:

      +

      Par exemple, pour installer cuDNN 8.7.0 pour CUDA 11. x s'il vous plaît +- Visitez NVIDIA cuDNN Archive. +- Cliquez sur « Télécharger cuDNN v8.7.0 (28 novembre 2022), pour CUDA 11.x ». +- Téléchargez et installez le logiciel.

      +
    4. +
    5. +

      Installer ffmpeg:

      +

      Vous pouvez télécharger un programme d'installation pour votre système d'exploitation à partir du site Web deffmpeg.

      +

      Ou utilisez un gestionnaire de packages :

      +
        +
      • +

        Sur Ubuntu ou Debian: + sudo apt update & & sudo apt install ffmpeg

        +
      • +
      • +

        Sur Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Sur MacOS utilisant Homebrew (https://brew.sh/): + infuser installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Chocolatey (https://chocolatey.org/): + choco installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Scoop (https://scoop.sh/): + scoop installer ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installez PyTorch avec le support CUDA :

      +

      Pour mettre à niveau votre installation PyTorch afin d'activer le support GPU avec CUDA, suivez ces instructions en fonction de votre version CUDA spécifique. Ceci est utile si vous souhaitez améliorer les performances de RealtimeSTT avec les capacités CUDA.

      +
        +
      • +

        Pour CUDA 11.8:

        +

        Pour mettre à jour PyTorch et Torchaudio afin de prendre en charge CUDA 11.8, utilisez les commandes suivantes :

        +

        pip installe torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Pour CUDA 12.X:

        +

        Pour mettre à jour PyTorch et Torchaudio pour prendre en charge CUDA 12.X, exécutez ce qui suit :

        +

        pip installe torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Remplacer ` of PyTorch that matching your system and requirements.

      +
    8. +
    9. +

      ** Correction pour résoudre les problèmes de compatibilité** : + Si vous rencontrez des problèmes de compatibilité de bibliothèque, essayez de définir ces bibliothèques sur des versions fixes :

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/fr/usage/index.html b/it/fr/usage/index.html new file mode 100755 index 0000000..3cac627 --- /dev/null +++ b/it/fr/usage/index.html @@ -0,0 +1,2146 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Utilisation

    +

    Démarrage rapide

    +

    Voici un exemple d'utilisation de base :

    +

    ```(python +depuis RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine

    +

    moteur = SystemEngine () # remplacer par votre moteur TTS +flux = TextToAudioStream(moteur) +stream.feed("Bonjour le monde! Comment ça va aujourd'hui ?") +stream.play_async() +``

    +

    Flux Texte

    +

    Vous pouvez alimenter des chaînes individuelles :

    +

    ``(`python +stream.feed(« Bonjour, c'est une phrase. »)

    +

    Ou vous pouvez alimenter des générateurs et des itérateurs de caractères pour le streaming en temps réel :

    +

    ```(python +def write (prompt : str) : + pour chunk en openai.ChatCompletion.create( + modèle="gpt-3.5-turbo", + messages=[{"role": "utilisateur", "contenu" : prompt}], + stream=True + ): + si (text_chunk := chunk[« choix »][0][« delta »].get(« contenu »)) n'est pas Aucun : + produire du texte_chunk

    +

    text_stream = write (« Un discours relaxant en trois phrases »)

    +

    stream.feed(text_stream) +``

    +

    ``(`python +char_iterator = iter (« Diffusion de ce personnage par personnage ») +stream.feed (char_iterator)

    +

    Layback

    +

    Asynchrone:

    +

    ``(`python +stream.play_async() +pendant que stream.is_playing(): + temps.sommeil(0,1)

    +

    Synchronisé:

    +

    ``(`python +stream.play()

    +

    Tester la bibliothèque

    +

    Le sous-répertoire de test contient un ensemble de scripts pour vous aider à évaluer et comprendre les capacités de la bibliothèque RealtimeTTS.

    +

    Notez que la plupart des tests reposent toujours sur l'« ancienne » API OpenAI (<1.0.0). L'utilisation de la nouvelle API OpenAI est démontrée dans openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description : Une démonstration de style « hello world » de l'usage le plus simple de la bibliothèque.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description : Une démonstration complète présentant la plupart des fonctionnalités fournies par la bibliothèque.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description : Test du moteur local coqui TTS.
      • +
      +
    • +
    • +

      traducteur.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Traductions en temps réel dans six langues différentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Interface utilisateur activée par mot de réveil et basée sur la voix vers l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dépendances: Exécuter pip install openai keyboard realtimestt.
      • +
      • Description : Choisissez le moteur et la voix TTS avant de démarrer la conversation sur l'IA.
      • +
      +
    • +
    • +

      _talkbot.py minimaliste

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Un talkbot basique en 20 lignes de code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : Démonstration simple de la façon d'intégrer la bibliothèque avec de grands modèles de langage (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : présente les rappels et vous permet de vérifier les temps de latence dans un environnement d'application réel.
      • +
      +
    • +
    +

    Mettre en pause, reprendre et arrêter

    +

    Mettre en pause le flux audio :

    +

    ``(`python +stream.pause()

    +

    Reprendre un flux en pause :

    +

    ``(`python +stream.reprendre()

    +

    Arrêtez immédiatement le flux :

    +

    ``(`python +stream.stop()

    +

    Exigences expliquées

    +
      +
    • Version Python:
    • +
    • Obligatoire: Python >= 3.9, < 3.13
    • +
    • +

      Raison : La bibliothèque dépend de la bibliothèque GitHub « TTS » de coqui, qui nécessite des versions Python dans cette gamme.

      +
    • +
    • +

      PyAudio : pour créer un flux audio de sortie

      +
    • +
    • +

      stream2sent : pour diviser le flux de texte entrant en phrases

      +
    • +
    • +

      pyttsx3 : Moteur de conversion texte-parole du système

      +
    • +
    • +

      pydub : pour convertir les formats de morceaux audio

      +
    • +
    • +

      azure-cognitiveservices-speech : Moteur de conversion texte-parole azur

      +
    • +
    • +

      elevenlabs : Moteur de conversion texte-parole Elevenlabs

      +
    • +
    • +

      coqui-TTS : Bibliothèque de synthèse vocale XTTS de Coqui pour un TTS neuronal local de haute qualité

      +
    • +
    +

    Criez à Idiap Research Institute pour entretenir une fourche de coqui tts.

    +
      +
    • +

      openai : pour interagir avec l'API TTS d'OpenAI

      +
    • +
    • +

      gtts : Google traduit la conversion texte-parole

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/hi/api/index.html b/it/hi/api/index.html new file mode 100755 index 0000000..1f38f3f --- /dev/null +++ b/it/hi/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    हिंदी

    + +

    कॉन्फ़िगरेशन

    +

    TextToAudioStream के लिए प्रारंभिक पैरामीटर

    +

    जब आप TextToAudioStream क्लास का इनिशियलाइज़ेशन करते हैं, तो आपके पास इसके व्यवहार को कस्टमाइज़ करने के लिए विभिन्न विकल्प होते हैं। यहाँ उपलब्ध पैरामीटर हैं:

    +

    engine (BaseEngine)

    +
      +
    • प्रकार: BaseEngine
    • +
    • आवश्यकता: हाँ
    • +
    • विवरण: टेक्स्ट-से-ऑडियो सिंथेसिस के लिए ज़िम्मेदार आधार इंजन। आपको ऑडियो सिंथेसिस को सक्षम करने के लिए BaseEngine या इसके सबक्लास का एक इंस्टेंस प्रदान करना होगा।
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब ट्रिगर होता है जब टेक्स्ट स्ट्रीम शुरू होती है। इसे किसी सेटअप या लॉगिंग के लिए उपयोग करें।
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन टेक्स्ट स्ट्रीम समाप्त होने पर सक्रिय होता है। इसे क्लीनअप कार्यों या लॉगिंग के लिए उपयोग किया जा सकता है।
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब चालू होता है जब ऑडियो स्ट्रीम शुरू होती है। यह UI अपडेट या इवेंट लॉगिंग के लिए सहायक है।
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन ऑडियो स्ट्रीम समाप्त होने पर कॉल किया जाता है। यह संसाधन क्लीनअप या पोस्ट-प्रोसेसिंग कार्यों के लिए आदर्श है।
    • +
    +

    on_character (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब कॉल किया जाता है जब एकल कैरेक्टर प्रोसेस किया जाता है।
    • +
    +

    output_device_index (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: उपयोग करने के लिए आउटपुट डिवाइस इंडेक्स निर्दिष्ट करता है। None डिफ़ॉल्ट डिवाइस का उपयोग करता है।
    • +
    +

    tokenizer (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: nltk
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग किए जाने वाले टोकनाइज़र (वर्तमान में "nltk" और "stanza" समर्थित हैं)।
    • +
    +

    language (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: en
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +

    muted (bool)

    +
      +
    • प्रकार: बूल
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: ग्लोबल म्यूटेड पैरामीटर। अगर True है, तो कोई pyAudio स्ट्रीम नहीं खोली जाएगी। स्थानीय स्पीकरों के माध्यम से ऑडियो प्लेबैक को अक्षम करता है और प्ले पैरामीटर म्यूट सेटिंग को ओवरराइड करता है।
    • +
    +

    level (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: logging.WARNING
    • +
    • विवरण: आंतरिक लॉगर के लिए लॉगिंग स्तर सेट करता है। यह पायथन के बिल्ट-इन logging मॉड्यूल से कोई भी इंटीजर कॉन्स्टेंट हो सकता है।
    • +
    +

    उदाहरण उपयोग:

    +
    engine = YourEngine()  # अपने इंजन के साथ प्रतिस्थापित करें
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    मेथड्स

    +

    play और play_async

    +

    ये मेथड्स टेक्स्ट-से-ऑडियो सिंथेसिस को निष्पादित करने और ऑडियो स्ट्रीम प्ले करने के लिए जिम्मेदार हैं। play एक ब्लॉकिंग फंक्शन है, जबकि play_async एक अलग थ्रेड में चलता है, जिससे अन्य ऑपरेशंस जारी रह सकते हैं।

    +
    पैरामीटर:
    +
    fast_sentence_fragment (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह विधि स्पीड को प्राथमिकता देगी, और वाक्यांशों को तेजी से जनरेट और प्ले करेगी। यह ऐसे अनुप्रयोगों के लिए सहायक है जहाँ विलंबता मायने रखती है।
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो सभी वाक्यों पर फास्ट वाक्यांश प्रोसेसिंग लागू करता है।
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह एकल के बजाय एकाधिक वाक्यांश उत्पन्न करने की अनुमति देता है।
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • डिफ़ॉल्ट: 0.0
    • +
    • +

      विवरण: बफ़रिंग सीमा के लिए समय को सेकंड में निर्दिष्ट करता है, जो ऑडियो प्लेबैक की स्थिरता और निरंतरता को प्रभावित करता है।

      +
    • +
    • +

      कैसे काम करता है: नए वाक्य का सिंथेसिस करने से पहले, सिस्टम यह जांचता है कि क्या बफ़र में निर्दिष्ट समय से अधिक ऑडियो सामग्री बची है। इससे यह सुनिश्चित होता है कि अधिक प्री-बफ़र किए गए ऑडियो से प्लेबैक में मौन या अंतराल कम हो।

      +
    • +
    +
    minimum_sentence_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: एक स्ट्रिंग को सिंथेसाइज़ करने के लिए वाक्य के रूप में मानने के लिए न्यूनतम कैरेक्टर की लंबाई सेट करता है।
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: पहले वाक्यांश के लिए आवश्यक न्यूनतम कैरेक्टर की संख्या सेट करता है।
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: सक्षम होने पर, ऑडियो में सिंथेसाइज़ होते समय टेक्स्ट के अंशों को लॉग करता है।
    • +
    +
    reset_generated_text (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: अगर True है, तो प्रोसेसिंग से पहले जनरेट किए गए टेक्स्ट को रीसेट करता है।
    • +
    +
    output_wavfile (str)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: यदि सेट है, तो ऑडियो को निर्दिष्ट WAV फाइल में सहेजता है।
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने के बाद कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने से पहले कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल ऑडियो टुकड़ा तैयार होने पर कॉल किया जाने वाला कॉलबैक फंक्शन।
    • +
    +
    tokenizer (str)
    +
      +
    • डिफ़ॉल्ट: "nltk"
    • +
    • विवरण: वाक्य विभाजन के लिए टोकनाइज़र। वर्तमान में "nltk" और "stanza" का समर्थन है।
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: टेक्स्ट से वाक्य को टोकनाइज़ करने
    • +
    +

    वाला एक कस्टम फंक्शन। यदि आप nltk और stanza से संतुष्ट नहीं हैं, तो अपना स्वयं का टोकनाइज़र प्रदान कर सकते हैं।

    +
    language (str)
    +
      +
    • डिफ़ॉल्ट: "en"
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +
    context_size (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाने के लिए संदर्भ स्थापित करने के लिए प्रयुक्त कैरेक्टर की संख्या।
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाते समय आगे देखने के लिए अतिरिक्त संदर्भ आकार।
    • +
    +
    muted (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: यदि True है, तो स्थानीय स्पीकर के माध्यम से ऑडियो प्लेबैक को अक्षम करता है।
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • डिफ़ॉल्ट: ".?!;:,\n…)]}。-"
    • +
    • विवरण: उन कैरेक्टर की स्ट्रिंग जो वाक्य सीमाओं के रूप में माने जाते हैं।
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • डिफ़ॉल्ट: 15
    • +
    • विवरण: पहले वाक्यांश को उत्पन्न करने के लिए आवश्यक शब्दों की संख्या।
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/hi/contributing/index.html b/it/hi/contributing/index.html new file mode 100755 index 0000000..ad9402d --- /dev/null +++ b/it/hi/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS में योगदान करें

    +

    हम RealtimeTTS में आपके योगदान का स्वागत करते हैं! आप इन तरीकों से योगदान कर सकते हैं:

    +
      +
    1. +

      बग रिपोर्ट करना: यदि आपको कोई बग मिलता है, तो कृपया हमारे GitHub रिपॉजिटरी पर एक इश्यू खोलें।

      +
    2. +
    3. +

      सुधारों का सुझाव देना: क्या आपके पास नई सुविधाओं या सुधारों के लिए सुझाव हैं? हमें उन्हें सुनकर खुशी होगी! कृपया सुधारों का सुझाव देने के लिए एक इश्यू खोलें।

      +
    4. +
    5. +

      कोड योगदान: कोई नई सुविधा जोड़ना चाहते हैं या किसी बग को ठीक करना चाहते हैं? शानदार! कृपया इन चरणों का पालन करें:

      +
    6. +
    7. रिपॉजिटरी को फोर्क करें
    8. +
    9. अपने फीचर के लिए एक नई ब्रांच बनाएं
    10. +
    11. अपने बदलाव करें
    12. +
    13. +

      अपने बदलावों का स्पष्ट विवरण देते हुए एक पुल रिक्वेस्ट सबमिट करें

      +
    14. +
    15. +

      दस्तावेज़ीकरण: टाइपो सुधारने, उदाहरण जोड़ने या भ्रमित करने वाले भागों को स्पष्ट करके हमें अपने दस्तावेज़ीकरण में सुधार करने में मदद करें।

      +
    16. +
    17. +

      नए इंजनों को जोड़ना: यदि आप किसी नए TTS इंजन के लिए समर्थन जोड़ना चाहते हैं, तो कृपया पहले एक इश्यू खोलें ताकि हम इसके कार्यान्वयन पर चर्चा कर सकें।

      +
    18. +
    +

    RealtimeTTS को बेहतर बनाने में मदद करने के लिए धन्यवाद!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/hi/faq/index.html b/it/hi/faq/index.html new file mode 100755 index 0000000..45be20e --- /dev/null +++ b/it/hi/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    अक्सर पूछे जाने वाले प्रश्न

    +

    RealtimeTTS से संबंधित अक्सर पूछे जाने वाले प्रश्नों के उत्तर के लिए, कृपया हमारे GitHub पर FAQ पेज पर जाएँ।

    +

    यह पेज विभिन्न विषयों को कवर करता है, जिनमें शामिल हैं:

    +
      +
    • विभिन्न TTS इंजनों का उपयोग
    • +
    • बहुभाषी टेक्स्ट को संभालना
    • +
    • प्रदर्शन में सुधार
    • +
    • सामान्य समस्याओं का समाधान
    • +
    +

    अधिक विस्तृत जानकारी के लिए, कृपया ऊपर दिए गए लिंक पर जाएँ।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/hi/index.html b/it/hi/index.html new file mode 100755 index 0000000..3f8ade8 --- /dev/null +++ b/it/hi/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    रीयल-टाइम अनुप्रयोगों के लिए उपयोग में आसान, कम-विलंबता वाला टेक्स्ट-टू-स्पीच लाइब्रेरी

    +

    परियोजना के बारे में

    +

    RealtimeTTS एक अत्याधुनिक टेक्स्ट-टू-स्पीच (TTS) लाइब्रेरी है, जिसे रीयल-टाइम अनुप्रयोगों के लिए डिज़ाइन किया गया है। इसकी सबसे बड़ी विशेषता यह है कि यह न्यूनतम विलंबता के साथ टेक्स्ट स्ट्रीम को तेज़ी से उच्च-गुणवत्ता वाली ध्वनि में परिवर्तित कर सकता है।

    +

    मुख्य विशेषताएँ

    +
      +
    • कम विलंबता: लगभग तात्कालिक टेक्स्ट-टू-स्पीच रूपांतरण, LLM आउटपुट के अनुकूल
    • +
    • उच्च-गुणवत्ता वाली ध्वनि: स्पष्ट और प्राकृतिक-ध्वनि उत्पन्न करता है
    • +
    • विभिन्न TTS इंजनों का समर्थन: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS और System TTS का समर्थन करता है
    • +
    • बहुभाषी समर्थन
    • +
    • मजबूत और विश्वसनीय: लगातार संचालन सुनिश्चित करने के लिए एक फ़ॉलबैक तंत्र का उपयोग करता है, व्यवधानों के मामले में वैकल्पिक इंजनों पर स्विच करता है, जो स्थिरता और विश्वसनीयता की गारंटी देता है
    • +
    +

    स्थापना निर्देशों, उपयोग के उदाहरणों और API संदर्भ के लिए, कृपया साइडबार का उपयोग करके दस्तावेज़ में नेविगेट करें।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/hi/installation/index.html b/it/hi/installation/index.html new file mode 100755 index 0000000..1cf9ede --- /dev/null +++ b/it/hi/installation/index.html @@ -0,0 +1,2216 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | HN

    +
    +

    नोट: pip install realtimetts का बेसिक इंस्टॉलेशन अब अनुशंसित नहीं है, इसके बजाय pip install realtimetts[all] का उपयोग करें।

    +
    +

    RealtimeTTS लाइब्रेरी विभिन्न निर्भरताओं के साथ इंस्टॉलेशन के विकल्प प्रदान करती है, ताकि आप अपने उपयोग के अनुसार इसे स्थापित कर सकें। यहाँ इंस्टॉलेशन के विभिन्न विकल्प दिए गए हैं:

    +

    पूर्ण स्थापना

    +

    सभी TTS इंजनों के समर्थन के साथ RealtimeTTS स्थापित करने के लिए:

    +
    pip install -U realtimetts[all]
    +
    +

    कस्टम इंस्टॉलेशन

    +

    RealtimeTTS में न्यूनतम लाइब्रेरी इंस्टॉलेशन के साथ कस्टम इंस्टॉलेशन की सुविधा है। उपलब्ध विकल्प:

    +
      +
    • all: सभी इंजनों के साथ पूर्ण इंस्टॉलेशन।
    • +
    • system: सिस्टम-विशिष्ट TTS क्षमताएँ शामिल करता है (जैसे, pyttsx3)।
    • +
    • azure: Azure Cognitive Services Speech का समर्थन जोड़ता है।
    • +
    • elevenlabs: ElevenLabs API के साथ एकीकरण।
    • +
    • openai: OpenAI वॉइस सेवाओं के लिए।
    • +
    • gtts: Google Text-to-Speech समर्थन।
    • +
    • coqui: Coqui TTS इंजन स्थापित करता है।
    • +
    • minimal: केवल बेस आवश्यकताओं को स्थापित करता है, बिना किसी इंजन के (यदि आप अपना इंजन विकसित करना चाहते हैं तो इसकी आवश्यकता होती है)।
    • +
    +

    उदाहरण के लिए, केवल स्थानीय न्यूरल Coqui TTS उपयोग के लिए RealtimeTTS स्थापित करना हो, तो उपयोग करें:

    +
    pip install realtimetts[coqui]
    +
    +

    अगर आप केवल Azure Cognitive Services Speech, ElevenLabs, और OpenAI का समर्थन चाहते हैं तो:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    वर्चुअल एनवायरनमेंट इंस्टॉलेशन

    +

    यदि आप एक वर्चुअल एनवायरनमेंट में पूर्ण स्थापना करना चाहते हैं, तो ये कदम अपनाएँ:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA इंस्टॉलेशन के बारे में अधिक जानकारी।

    +

    इंजन आवश्यकताएँ

    +

    RealtimeTTS द्वारा समर्थित विभिन्न इंजनों की अलग-अलग आवश्यकताएँ हैं। अपनी पसंद के अनुसार इन आवश्यकताओं को पूरा करना सुनिश्चित करें।

    +

    SystemEngine

    +

    SystemEngine आपके सिस्टम की अंतर्निहित TTS क्षमताओं के साथ स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    GTTSEngine

    +

    GTTSEngine Google Translate के टेक्स्ट-टू-स्पीच API का उपयोग करके स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    OpenAIEngine

    +

    OpenAIEngine का उपयोग करने के लिए: +- पर्यावरण वेरिएबल OPENAI_API_KEY सेट करें +- ffmpeg स्थापित करें (देखें CUDA इंस्टॉलेशन बिंदु 3)

    +

    AzureEngine

    +

    AzureEngine का उपयोग करने के लिए आपको चाहिए: +- Microsoft Azure Text-to-Speech API कुंजी (AzureEngine में "speech_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल AZURE_SPEECH_KEY में) +- Microsoft Azure सेवा क्षेत्र।

    +

    इंस्टॉल करते समय ये क्रेडेंशियल उपलब्ध और सही तरीके से कॉन्फ़िगर करना सुनिश्चित करें।

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine के लिए, आपको चाहिए: +- Elevenlabs API कुंजी (ElevenlabsEngine में "api_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल ELEVENLABS_API_KEY में) +- आपके सिस्टम पर mpv स्थापित हो (mpeg ऑडियो स्ट्रीमिंग के लिए आवश्यक है, Elevenlabs केवल mpeg प्रदान करता है)।

    +

    🔹 mpv स्थापित करना: + - macOS: + brew install mpv

    +
      +
    • Linux और Windows: इंस्टॉलेशन के निर्देशों के लिए mpv.io पर जाएं।
    • +
    +

    CoquiEngine

    +

    उच्च गुणवत्ता, स्थानीय, न्यूरल TTS प्रदान करता है जिसमें वॉइस-क्लोनिंग भी शामिल है।

    +

    पहली बार एक न्यूरल TTS मॉडल डाउनलोड करता है। अधिकतर मामलों में GPU सिंथेसिस का उपयोग करते हुए रीयल-टाइम के लिए पर्याप्त तेज़ होगा। लगभग 4-5 GB VRAM की आवश्यकता होती है।

    +
      +
    • वॉइस क्लोन करने के लिए CoquiEngine के "voice" पैरामीटर में एक वेव फ़ाइल का नाम दर्ज करें जिसमें स्रोत वॉइस हो।
    • +
    • वॉइस क्लोनिंग के लिए 22050 Hz मोनो 16-बिट WAV फाइल के साथ लगभग 5-30 सेकंड की नमूना ऑडियो फ़ाइल सबसे अच्छा परिणाम देती है।
    • +
    +

    CUDA इंस्टॉलेशन

    +

    वे लोग जिनके पास NVIDIA GPU है और जो बेहतर प्रदर्शन चाहते हैं, उनके लिए ये कदम अनुशंसित हैं।

    +
    +

    नोट: अगर आपका NVIDIA GPU CUDA को सपोर्ट करता है तो आधिकारिक CUDA GPUs सूची पर जाँचें।

    +
    +

    CUDA समर्थन के साथ torch का उपयोग करने के लिए, इन चरणों का पालन करें:

    +
      +
    1. +

      NVIDIA CUDA टूलकिट स्थापित करें: + उदाहरण के लिए, टूलकिट 12.X स्थापित करने के लिए:

      +
        +
      • NVIDIA CUDA डाउनलोड पर जाएँ।
      • +
      • अपने ऑपरेटिंग सिस्टम, सिस्टम आर्किटेक्चर, और ओएस संस्करण का चयन करें।
      • +
      • सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।
      • +
      +
    2. +
    3. +

      NVIDIA cuDNN स्थापित करें:

      +

      उदाहरण के लिए, CUDA 11.x के लिए cuDNN 8.7.0 स्थापित करने के लिए: +- NVIDIA cuDNN Archive पर जाएं। +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x" पर क्लिक करें। +- सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।

      +
    4. +
    5. +

      ffmpeg स्थापित करें:

      +

      आप अपने OS के लिए ffmpeg वेबसाइट से इंस्टॉलर डाउनलोड कर सकते हैं: ffmpeg Website

      +
    6. +
    7. +

      CUDA समर्थन के साथ PyTorch स्थापित करें:

      +

      अपने सिस्टम और आवश्यकताओं के अनुसार PyTorch संस्करण को CUDA समर्थन के साथ अपग्रेड करने के लिए:

      +
        +
      • +

        CUDA 11.8 के लिए:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        CUDA 12.X के लिए:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +
    8. +
    9. +

      संगतता समस्याओं को हल करने के लिए फिक्स: + यदि आप लाइब्रेरी संगतता मुद्दों का सामना करते हैं, तो इन लाइब्रेरी संस्करणों को फिक्स करने का प्रयास करें:

      +
    10. +
    +

    pip install networkx==2.8.8 + pip install typing_extensions==4.8.0 + pip install fsspec==2023.6.0 + pip install imageio==2.31.6 + pip install numpy==1.24.3 + pip install requests==2.31.0

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/hi/usage/index.html b/it/hi/usage/index.html new file mode 100755 index 0000000..4caa8e6 --- /dev/null +++ b/it/hi/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    उपयोग

    +

    त्वरित प्रारंभ

    +

    यहाँ एक बुनियादी उदाहरण दिया गया है:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # अपनी TTS-इंजन के साथ इसे बदलें
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    टेक्स्ट इनपुट

    +

    आप व्यक्तिगत स्ट्रिंग्स इनपुट कर सकते हैं:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    या आप वास्तविक समय-स्ट्रीमिंग के लिए जनरेटर और कैरेक्टर-इटरेटर का उपयोग कर सकते हैं:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    प्लेबैक

    +

    असिंक्रोनस:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    सिंक्रोनस:

    +
    stream.play()
    +
    +

    लाइब्रेरी का परीक्षण

    +

    परीक्षण-सबडायरेक्टरी में विभिन्न स्क्रिप्ट्स शामिल हैं, जो आपको RealtimeTTS लाइब्रेरी की क्षमताओं को समझने और आकलन करने में मदद करती हैं।

    +

    ध्यान दें कि अधिकांश परीक्षण अभी भी "पुरानी" OpenAI API (<1.0.0) पर आधारित हैं। नई OpenAI API का उपयोग openai_1.0_test.py में प्रदर्शित किया गया है।

    +
      +
    • +

      simple_test.py

      +
        +
      • विवरण: सबसे आसान लाइब्रेरी उपयोग का एक "Hello World" जैसा प्रदर्शन।
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • विवरण: लाइब्रेरी की अधिकतम कार्यक्षमता का व्यापक प्रदर्शन।
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • विवरण: स्थानीय Coqui TTS-इंजन का परीक्षण।
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: वास्तविक समय में छह विभिन्न भाषाओं में अनुवाद।
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: एक्टिवेशन-वर्ड के माध्यम से और आवाज-आधारित इंटरफ़ेस के साथ OpenAI API का उपयोग।
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • आवश्यकताएँ: pip install openai keyboard realtimestt कमांड चलाएँ।
      • +
      • विवरण: AI बातचीत शुरू करने से पहले TTS-इंजन और आवाज का चयन।
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: 20 कोड लाइनों में एक साधारण टॉकबोट।
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: लाइब्रेरी की LLMs के साथ एकीकृत करने का सरल प्रदर्शन।
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: वास्तविक वातावरण में विलंब समय को मापने और प्रतिक्रिया को प्रदर्शित करता है।
      • +
      +
    • +
    +

    रुकना, पुनः आरंभ करना और रोकना

    +

    ऑडियो स्ट्रीम को रोकें:

    +
    stream.pause()
    +
    +

    रुकी हुई स्ट्रीम पुनः प्रारंभ करें:

    +
    stream.resume()
    +
    +

    स्ट्रीम तुरंत रोकें:

    +
    stream.stop()
    +
    +

    आवश्यकताओं का स्पष्टीकरण

    +
      +
    • Python संस्करण:
    • +
    • आवश्यक: Python >= 3.9, < 3.13
    • +
    • +

      कारण: लाइब्रेरी Coqui की GitHub लाइब्रेरी "TTS" पर निर्भर करती है, जो इस संस्करण सीमा का समर्थन करती है।

      +
    • +
    • +

      PyAudio: ऑडियो आउटपुट स्ट्रीम बनाने के लिए

      +
    • +
    • +

      stream2sentence: इनकमिंग टेक्स्ट स्ट्रीम को वाक्यों में विभाजित करने के लिए

      +
    • +
    • +

      pyttsx3: सिस्टम Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      pydub: ऑडियो चंक फॉर्मेट्स में कन्वर्शन के लिए

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      coqui-TTS: उच्च गुणवत्ता वाली स्थानीय न्यूरल TTS के लिए Coqui का XTTS Text-to-Speech लाइब्रेरी

      +
    • +
    +

    Idiap Research Institute को उनके Coqui TTS का Fork बनाए रखने के लिए धन्यवाद।

    +
      +
    • +

      openai: OpenAI TTS API के साथ बातचीत के लिए

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech कन्वर्शन

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/index.html b/it/index.html new file mode 100755 index 0000000..e5dd5c3 --- /dev/null +++ b/it/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Libreria text-to-speech facile da usare e a bassa latenza per applicazioni in tempo reale

    +

    Informazioni sul progetto

    +

    RealtimeTTS è una libreria text-to-speech (TTS) all'avanguardia progettata per applicazioni in tempo reale. Si distingue per la sua capacità di convertire rapidamente i flussi di testo in output uditivo di alta qualità con una latenza minima.

    +

    Caratteristiche principali

    +
      +
    • Bassa latenza: conversione testo-discorso quasi istantanea, compatibile con le uscite LLM
    • +
    • Audio di alta qualità: generi un discorso chiaro e dal suono naturale
    • +
    • Multiplo supporto motore TTS: supportoa OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS e System TTS
    • +
    • Multilingue
    • +
    • Robust and Reliable: assicurazione un divertimento continuo attraverso un meccanismo di ripiego, passa a motori alternativi in caso di interdizioni garantite prestazioni e affidabilità costanti
    • +
    +

    Per istruzioni di installazione, esempi di utilizzo e ritorno API, navigare nella documentazione utilizzando la barra laterale.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/installation/index.html b/it/installation/index.html new file mode 100755 index 0000000..20823a7 --- /dev/null +++ b/it/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Italiano

    + +
    +

    Nota: L'installazione base con pip install realtimetts non è più raccomandata, utilizzare invece pip install realtimetts[all].

    +
    +

    La libreria RealtimeTTS fornisce opzioni di installazione per varie dipendenze in base al tuo caso d'uso. Ecco i diversi modi in cui puoi installare RealtimeTTS in base alle tue necessità:

    +

    Installazione Completa

    +

    Per installare RealtimeTTS con supporto per tutti i motori TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Installazione Personalizzata

    +

    RealtimeTTS permette un'installazione personalizzata con installazioni minime delle librerie. Ecco le opzioni disponibili: +- all: Installazione completa con tutti i motori supportati. +- system: Include le capacità TTS specifiche del sistema (es. pyttsx3). +- azure: Aggiunge il supporto Azure Cognitive Services Speech. +- elevenlabs: Include l'integrazione con l'API ElevenLabs. +- openai: Per i servizi vocali OpenAI. +- gtts: Supporto Google Text-to-Speech. +- coqui: Installa il motore Coqui TTS. +- minimal: Installa solo i requisiti base senza motore (necessario solo se si vuole sviluppare un proprio motore)

    +

    Se vuoi installare RealtimeTTS solo per l'uso locale di Coqui TTS neurale, dovresti utilizzare:

    +
    pip install realtimetts[coqui]
    +
    +

    Per esempio, se vuoi installare RealtimeTTS solo con il supporto per Azure Cognitive Services Speech, ElevenLabs e OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installazione in Ambiente Virtuale

    +

    Per chi vuole eseguire un'installazione completa all'interno di un ambiente virtuale, seguire questi passaggi:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Maggiori informazioni sull'installazione CUDA.

    +

    Requisiti dei Motori

    +

    I diversi motori supportati da RealtimeTTS hanno requisiti unici. Assicurati di soddisfare questi requisiti in base al motore che scegli.

    +

    SystemEngine

    +

    Il SystemEngine funziona subito con le capacità TTS integrate nel tuo sistema. Non è necessaria alcuna configurazione aggiuntiva.

    +

    GTTSEngine

    +

    Il GTTSEngine funziona subito utilizzando l'API text-to-speech di Google Translate. Non è necessaria alcuna configurazione aggiuntiva.

    +

    OpenAIEngine

    +

    Per utilizzare OpenAIEngine: +- impostare la variabile d'ambiente OPENAI_API_KEY +- installare ffmpeg (vedi installazione CUDA punto 3)

    +

    AzureEngine

    +

    Per utilizzare AzureEngine, avrai bisogno di: +- Chiave API Microsoft Azure Text-to-Speech (fornita tramite il parametro del costruttore AzureEngine "speech_key" o nella variabile d'ambiente AZURE_SPEECH_KEY) +- Regione del servizio Microsoft Azure.

    +

    Assicurati di avere queste credenziali disponibili e configurate correttamente quando inizializzi AzureEngine.

    +

    ElevenlabsEngine

    +

    Per ElevenlabsEngine, hai bisogno di: +- Chiave API Elevenlabs (fornita tramite il parametro del costruttore ElevenlabsEngine "api_key" o nella variabile d'ambiente ELEVENLABS_API_KEY) +- mpv installato sul tuo sistema (essenziale per lo streaming audio mpeg, Elevenlabs fornisce solo mpeg).

    +

    🔹 Installazione di mpv: + - macOS: + brew install mpv

    +
      +
    • Linux e Windows: Visita mpv.io per le istruzioni di installazione.
    • +
    +

    CoquiEngine

    +

    Fornisce TTS neurale locale di alta qualità con clonazione vocale.

    +

    Scarica prima un modello TTS neurale. Nella maggior parte dei casi sarà abbastanza veloce per il tempo reale utilizzando la sintesi GPU. Richiede circa 4-5 GB di VRAM.

    +
      +
    • per clonare una voce inviare il nome del file di un file wave contenente la voce sorgente come parametro "voice" al costruttore CoquiEngine
    • +
    • la clonazione vocale funziona meglio con un file WAV mono 16bit a 22050 Hz contenente un breve campione (circa 5-30 sec)
    • +
    +

    Sulla maggior parte dei sistemi sarà necessario il supporto GPU per funzionare abbastanza velocemente per il tempo reale, altrimenti si verificheranno interruzioni.

    +

    Installazione CUDA

    +

    Questi passaggi sono raccomandati per chi richiede migliori prestazioni e ha una GPU NVIDIA compatibile.

    +
    +

    Nota: per verificare se la tua GPU NVIDIA supporta CUDA, visita la lista ufficiale delle GPU CUDA.

    +
    +

    Per utilizzare torch con supporto via CUDA segui questi passaggi:

    +
    +

    Nota: le installazioni più recenti di pytorch potrebbero (non verificato) non necessitare più dell'installazione del Toolkit (e possibilmente cuDNN).

    +
    +
      +
    1. +

      Installa NVIDIA CUDA Toolkit: + Per esempio, per installare il Toolkit 12.X, per favore

      +
        +
      • Visita NVIDIA CUDA Downloads.
      • +
      • Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo.
      • +
      • Scarica e installa il software.
      • +
      +

      o per installare il Toolkit 11.8, per favore +- Visita NVIDIA CUDA Toolkit Archive. +- Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo. +- Scarica e installa il software.

      +
    2. +
    3. +

      Installa NVIDIA cuDNN:

      +

      Per esempio, per installare cuDNN 8.7.0 per CUDA 11.x per favore +- Visita NVIDIA cuDNN Archive. +- Clicca su "Download cuDNN v8.7.0 (28 Novembre 2022), per CUDA 11.x". +- Scarica e installa il software.

      +
    4. +
    5. +

      Installa ffmpeg:

      +

      Puoi scaricare un installer per il tuo sistema operativo dal sito web ffmpeg.

      +

      Oppure usa un gestore pacchetti:

      +
        +
      • +

        Su Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Su Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Su MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Su Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Su Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installa PyTorch con supporto CUDA:

      +

      Per aggiornare la tua installazione PyTorch per abilitare il supporto GPU con CUDA, segui queste istruzioni basate sulla tua versione CUDA specifica. Questo è utile se desideri migliorare le prestazioni di RealtimeSTT con le capacità CUDA.

      +
        +
      • +

        Per CUDA 11.8:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 11.8, usa i seguenti comandi:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Per CUDA 12.X:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 12.X, esegui quanto segue:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Sostituisci 2.3.1 con la versione di PyTorch che corrisponde al tuo sistema e requisiti.

      +
    8. +
    9. +

      Fix per risolvere problemi di compatibilità: + Se riscontri problemi di compatibilità delle librerie, prova a impostare queste librerie a versioni fisse:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/it/api/index.html b/it/it/api/index.html new file mode 100755 index 0000000..dbd5566 --- /dev/null +++ b/it/it/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Italiano

    + +

    Configurazione

    +

    Parametri di Inizializzazione per TextToAudioStream

    +

    Quando si inizializza la classe TextToAudioStream, sono disponibili diverse opzioni per personalizzare il suo comportamento. Ecco i parametri disponibili:

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Obbligatorio: Sì
    • +
    • Descrizione: Il motore sottostante responsabile della sintesi da testo ad audio. È necessario fornire un'istanza di BaseEngine o della sua sottoclasse per abilitare la sintesi audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando inizia lo stream di testo. Utilizzala per qualsiasi configurazione o registrazione necessaria.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando termina lo stream di testo. Puoi utilizzarla per attività di pulizia o registrazione.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene invocata quando inizia lo stream audio. Utile per aggiornamenti dell'interfaccia utente o registrazione eventi.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando lo stream audio si ferma. Ideale per la pulizia delle risorse o attività di post-elaborazione.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando viene elaborato un singolo carattere.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: None
    • +
    • Descrizione: Specifica l'indice del dispositivo di output da utilizzare. None usa il dispositivo predefinito.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: nltk
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi (attualmente sono supportati "nltk" e "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: en
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Obbligatorio: No
    • +
    • Predefinito: False
    • +
    • Descrizione: Parametro globale di silenziamento. Se True, non verrà aperto alcuno stream pyAudio. Disabilita la riproduzione audio attraverso gli altoparlanti locali (nel caso in cui si desideri sintetizzare su file o elaborare chunk audio) e sovrascrive l'impostazione muted dei parametri di riproduzione.
    • +
    +

    level (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: logging.WARNING
    • +
    • Descrizione: Imposta il livello di logging per il logger interno. Può essere qualsiasi costante intera dal modulo logging integrato di Python.
    • +
    +

    Esempio di Utilizzo:

    +
    engine = YourEngine()  # Sostituire con il proprio motore
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Metodi

    +

    play e play_async

    +

    Questi metodi sono responsabili dell'esecuzione della sintesi testo-audio e della riproduzione dello stream audio. La differenza è che play è una funzione bloccante, mentre play_async viene eseguito in un thread separato, permettendo ad altre operazioni di procedere.

    +
    Parametri:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Quando impostato su True, il metodo darà priorità alla velocità, generando e riproducendo i frammenti di frase più rapidamente. Questo è utile per applicazioni dove la latenza è importante.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, applica l'elaborazione rapida dei frammenti di frase a tutte le frasi, non solo alla prima.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, permette di produrre più frammenti di frase invece di uno solo.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Predefinito: 0.0
    • +
    • +

      Descrizione: Specifica il tempo in secondi per la soglia di buffering, che influenza la fluidità e la continuità della riproduzione audio.

      +
    • +
    • +

      Come Funziona: Prima di sintetizzare una nuova frase, il sistema controlla se nel buffer rimane più materiale audio del tempo specificato da buffer_threshold_seconds. In caso affermativo, recupera un'altra frase dal generatore di testo, assumendo che possa recuperare e sintetizzare questa nuova frase entro la finestra temporale fornita dall'audio rimanente nel buffer. Questo processo consente al motore di sintesi vocale di avere più contesto per una migliore sintesi, migliorando l'esperienza utente.

      +
    • +
    +

    Un valore più alto assicura che ci sia più audio pre-bufferizzato, riducendo la probabilità di silenzi o interruzioni durante la riproduzione. Se si verificano interruzioni o pause, considera di aumentare questo valore.

    +
    minimum_sentence_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Imposta la lunghezza minima in caratteri per considerare una stringa come una frase da sintetizzare. Questo influisce su come vengono elaborati e riprodotti i chunk di testo.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Il numero minimo di caratteri richiesti per il primo frammento di frase prima della produzione.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando abilitato, registra i chunk di testo mentre vengono sintetizzati in audio. Utile per il controllo e il debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Se True, reimposta il testo generato prima dell'elaborazione.
    • +
    +
    output_wavfile (str)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Se impostato, salva l'audio nel file WAV specificato.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata dopo che un singolo frammento di frase è stato sintetizzato.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata prima che un singolo frammento di frase venga sintetizzato.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Funzione di callback che viene chiamata quando un singolo chunk audio è pronto.
    • +
    +
    tokenizer (str)
    +
      +
    • Predefinito: "nltk"
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi. Attualmente supporta "nltk" e "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione personalizzata che tokenizza le frasi dal testo di input. Puoi fornire il tuo tokenizer leggero se non sei soddisfatto di nltk e stanza. Dovrebbe prendere il testo come stringa e restituire le frasi divise come lista di stringhe.
    • +
    +
    language (str)
    +
      +
    • Predefinito: "en"
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +
    context_size (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Il numero di caratteri utilizzati per stabilire il contesto per il rilevamento dei confini della frase. Un contesto più ampio migliora la precisione nel rilevare i confini delle frasi.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Dimensione del contesto aggiuntiva per guardare avanti durante il rilevamento dei confini delle frasi.
    • +
    +
    muted (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Se True, disabilita la riproduzione audio attraverso gli altoparlanti locali. Utile quando si desidera sintetizzare su file o elaborare chunk audio senza riprodurli.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Predefinito: ".?!;:,\n…)]}。-"
    • +
    • Descrizione: Una stringa di caratteri che sono considerati delimitatori di frase.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Predefinito: 15
    • +
    • Descrizione: Il numero di parole dopo il quale viene forzata la produzione del primo frammento di frase.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/it/contributing/index.html b/it/it/contributing/index.html new file mode 100755 index 0000000..044126a --- /dev/null +++ b/it/it/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuire a RealtimeTTS

    +

    Accogliamo con favore i contributi a RealtimeTTS! Ecco alcuni modi in cui puoi contribuire:

    +
      +
    1. +

      Segnalazione di bug: Se trovi un bug, apri un problema sul nostro repository GitHub.

      +
    2. +
    3. +

      Suggerendo Miglioramenti: Hai idee per nuove funzionalità o miglioramenti? Ci piacerebbe sentirli! Apri un problema per suggerire miglioramenti.

      +
    4. +
    5. +

      Contributi del codice: vuoi aggiungere una nuova funzionalità o correggere un bug? Grande! Si prega di seguire questi passaggi:

      +
    6. +
    7. Forchetta il repository
    8. +
    9. Crea un nuovo ramo per la tua funzione
    10. +
    11. Apporta le tue modifiche
    12. +
    13. +

      Invia una richiesta pull con una chiara descrizione delle modifiche

      +
    14. +
    15. +

      Documentazione: aiutaci a migliorare la nostra documentazione correggendo errori di battitura, aggiungendo esempi o chiarendo sezioni confuse.

      +
    16. +
    17. +

      Aggiunta di nuovi motori: se si desidera aggiungere il supporto per un nuovo motore TTS, aprire prima un problema per discutere l'implementazione.

      +
    18. +
    +

    Grazie per aver contribuito a rendere RealtimeTTS migliore!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/it/faq/index.html b/it/it/faq/index.html new file mode 100755 index 0000000..3e15a96 --- /dev/null +++ b/it/it/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Domande frequenti

    +

    Per le risposte alle domande più frequenti su RealtimeTTS, fare riferimento alla nostra [pagina FAQ su GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Questa pagina tratta vari argomenti tra cui

    +
      +
    • Utilizzo di diversi motori TTS
    • +
    • Gestione del testo multilingue
    • +
    • Ottimizzazione delle prestazioni
    • +
    • Risoluzione dei problemi comuni
    • +
    +

    Per informazioni più dettagliate, visitare il link sopra.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/it/index.html b/it/it/index.html new file mode 100755 index 0000000..64d60c4 --- /dev/null +++ b/it/it/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Libreria text-to-speech facile da usare e a bassa latenza per applicazioni in tempo reale

    +

    Informazioni sul progetto

    +

    RealtimeTTS è una libreria text-to-speech (TTS) all'avanguardia progettata per applicazioni in tempo reale. Si distingue per la sua capacità di convertire rapidamente i flussi di testo in output uditivo di alta qualità con una latenza minima.

    +

    Caratteristiche principali

    +
      +
    • Bassa latenza: conversione testo-discorso quasi istantanea, compatibile con le uscite LLM
    • +
    • Audio di alta qualità: generi un discorso chiaro e dal suono naturale
    • +
    • Multiplo supporto motore TTS: supportoa OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS e System TTS
    • +
    • Multilingue
    • +
    • Robust and Reliable: assicurazione un divertimento continuo attraverso un meccanismo di ripiego, passa a motori alternativi in caso di interdizioni garantite prestazioni e affidabilità costanti
    • +
    +

    Per istruzioni di installazione, esempi di utilizzo e ritorno API, navigare nella documentazione utilizzando la barra laterale.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/it/installation/index.html b/it/it/installation/index.html new file mode 100755 index 0000000..16d7c1f --- /dev/null +++ b/it/it/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Italiano

    + +
    +

    Nota: L'installazione base con pip install realtimetts non è più raccomandata, utilizzare invece pip install realtimetts[all].

    +
    +

    La libreria RealtimeTTS fornisce opzioni di installazione per varie dipendenze in base al tuo caso d'uso. Ecco i diversi modi in cui puoi installare RealtimeTTS in base alle tue necessità:

    +

    Installazione Completa

    +

    Per installare RealtimeTTS con supporto per tutti i motori TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Installazione Personalizzata

    +

    RealtimeTTS permette un'installazione personalizzata con installazioni minime delle librerie. Ecco le opzioni disponibili: +- all: Installazione completa con tutti i motori supportati. +- system: Include le capacità TTS specifiche del sistema (es. pyttsx3). +- azure: Aggiunge il supporto Azure Cognitive Services Speech. +- elevenlabs: Include l'integrazione con l'API ElevenLabs. +- openai: Per i servizi vocali OpenAI. +- gtts: Supporto Google Text-to-Speech. +- coqui: Installa il motore Coqui TTS. +- minimal: Installa solo i requisiti base senza motore (necessario solo se si vuole sviluppare un proprio motore)

    +

    Se vuoi installare RealtimeTTS solo per l'uso locale di Coqui TTS neurale, dovresti utilizzare:

    +
    pip install realtimetts[coqui]
    +
    +

    Per esempio, se vuoi installare RealtimeTTS solo con il supporto per Azure Cognitive Services Speech, ElevenLabs e OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installazione in Ambiente Virtuale

    +

    Per chi vuole eseguire un'installazione completa all'interno di un ambiente virtuale, seguire questi passaggi:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Maggiori informazioni sull'installazione CUDA.

    +

    Requisiti dei Motori

    +

    I diversi motori supportati da RealtimeTTS hanno requisiti unici. Assicurati di soddisfare questi requisiti in base al motore che scegli.

    +

    SystemEngine

    +

    Il SystemEngine funziona subito con le capacità TTS integrate nel tuo sistema. Non è necessaria alcuna configurazione aggiuntiva.

    +

    GTTSEngine

    +

    Il GTTSEngine funziona subito utilizzando l'API text-to-speech di Google Translate. Non è necessaria alcuna configurazione aggiuntiva.

    +

    OpenAIEngine

    +

    Per utilizzare OpenAIEngine: +- impostare la variabile d'ambiente OPENAI_API_KEY +- installare ffmpeg (vedi installazione CUDA punto 3)

    +

    AzureEngine

    +

    Per utilizzare AzureEngine, avrai bisogno di: +- Chiave API Microsoft Azure Text-to-Speech (fornita tramite il parametro del costruttore AzureEngine "speech_key" o nella variabile d'ambiente AZURE_SPEECH_KEY) +- Regione del servizio Microsoft Azure.

    +

    Assicurati di avere queste credenziali disponibili e configurate correttamente quando inizializzi AzureEngine.

    +

    ElevenlabsEngine

    +

    Per ElevenlabsEngine, hai bisogno di: +- Chiave API Elevenlabs (fornita tramite il parametro del costruttore ElevenlabsEngine "api_key" o nella variabile d'ambiente ELEVENLABS_API_KEY) +- mpv installato sul tuo sistema (essenziale per lo streaming audio mpeg, Elevenlabs fornisce solo mpeg).

    +

    🔹 Installazione di mpv: + - macOS: + brew install mpv

    +
      +
    • Linux e Windows: Visita mpv.io per le istruzioni di installazione.
    • +
    +

    CoquiEngine

    +

    Fornisce TTS neurale locale di alta qualità con clonazione vocale.

    +

    Scarica prima un modello TTS neurale. Nella maggior parte dei casi sarà abbastanza veloce per il tempo reale utilizzando la sintesi GPU. Richiede circa 4-5 GB di VRAM.

    +
      +
    • per clonare una voce inviare il nome del file di un file wave contenente la voce sorgente come parametro "voice" al costruttore CoquiEngine
    • +
    • la clonazione vocale funziona meglio con un file WAV mono 16bit a 22050 Hz contenente un breve campione (circa 5-30 sec)
    • +
    +

    Sulla maggior parte dei sistemi sarà necessario il supporto GPU per funzionare abbastanza velocemente per il tempo reale, altrimenti si verificheranno interruzioni.

    +

    Installazione CUDA

    +

    Questi passaggi sono raccomandati per chi richiede migliori prestazioni e ha una GPU NVIDIA compatibile.

    +
    +

    Nota: per verificare se la tua GPU NVIDIA supporta CUDA, visita la lista ufficiale delle GPU CUDA.

    +
    +

    Per utilizzare torch con supporto via CUDA segui questi passaggi:

    +
    +

    Nota: le installazioni più recenti di pytorch potrebbero (non verificato) non necessitare più dell'installazione del Toolkit (e possibilmente cuDNN).

    +
    +
      +
    1. +

      Installa NVIDIA CUDA Toolkit: + Per esempio, per installare il Toolkit 12.X, per favore

      +
        +
      • Visita NVIDIA CUDA Downloads.
      • +
      • Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo.
      • +
      • Scarica e installa il software.
      • +
      +

      o per installare il Toolkit 11.8, per favore +- Visita NVIDIA CUDA Toolkit Archive. +- Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo. +- Scarica e installa il software.

      +
    2. +
    3. +

      Installa NVIDIA cuDNN:

      +

      Per esempio, per installare cuDNN 8.7.0 per CUDA 11.x per favore +- Visita NVIDIA cuDNN Archive. +- Clicca su "Download cuDNN v8.7.0 (28 Novembre 2022), per CUDA 11.x". +- Scarica e installa il software.

      +
    4. +
    5. +

      Installa ffmpeg:

      +

      Puoi scaricare un installer per il tuo sistema operativo dal sito web ffmpeg.

      +

      Oppure usa un gestore pacchetti:

      +
        +
      • +

        Su Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Su Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Su MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Su Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Su Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installa PyTorch con supporto CUDA:

      +

      Per aggiornare la tua installazione PyTorch per abilitare il supporto GPU con CUDA, segui queste istruzioni basate sulla tua versione CUDA specifica. Questo è utile se desideri migliorare le prestazioni di RealtimeSTT con le capacità CUDA.

      +
        +
      • +

        Per CUDA 11.8:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 11.8, usa i seguenti comandi:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Per CUDA 12.X:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 12.X, esegui quanto segue:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Sostituisci 2.3.1 con la versione di PyTorch che corrisponde al tuo sistema e requisiti.

      +
    8. +
    9. +

      Fix per risolvere problemi di compatibilità: + Se riscontri problemi di compatibilità delle librerie, prova a impostare queste librerie a versioni fisse:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/it/usage/index.html b/it/it/usage/index.html new file mode 100755 index 0000000..f55afac --- /dev/null +++ b/it/it/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Utilizzo

    +

    Avvio Rapido

    +

    Ecco un esempio di utilizzo base:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # sostituisci con il tuo motore TTS
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Inserimento del Testo

    +

    Puoi inserire singole stringhe:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oppure puoi inserire generatori e iteratori di caratteri per lo streaming in tempo reale:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Riproduzione

    +

    In modo asincrono:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    In modo sincrono:

    +
    stream.play()
    +
    +

    Test della Libreria

    +

    La sottodirectory test contiene una serie di script per aiutarti a valutare e comprendere le capacità della libreria RealtimeTTS.

    +

    Nota che la maggior parte dei test si basa ancora sulla "vecchia" API OpenAI (<1.0.0). L'utilizzo della nuova API OpenAI è dimostrato in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descrizione: Una dimostrazione stile "hello world" dell'utilizzo più semplice della libreria.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descrizione: Una dimostrazione completa che mostra la maggior parte delle funzionalità fornite dalla libreria.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descrizione: Test del motore TTS coqui locale.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Traduzioni in tempo reale in sei lingue diverse.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Interfaccia utente vocale attivata da parola chiave per l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dipendenze: Esegui pip install openai keyboard realtimestt.
      • +
      • Descrizione: Scegli il motore TTS e la voce prima di iniziare la conversazione con l'IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Un talkbot base in 20 righe di codice.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Semplice dimostrazione di come integrare la libreria con i modelli linguistici di grandi dimensioni (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Mostra i callback e ti permette di verificare i tempi di latenza in un ambiente applicativo reale.
      • +
      +
    • +
    +

    Pausa, Ripresa e Stop

    +

    Metti in pausa lo stream audio:

    +
    stream.pause()
    +
    +

    Riprendi uno stream in pausa:

    +
    stream.resume()
    +
    +

    Ferma immediatamente lo stream:

    +
    stream.stop()
    +
    +

    Requisiti Spiegati

    +
      +
    • Versione Python:
    • +
    • Richiesto: Python >= 3.9, < 3.13
    • +
    • +

      Motivo: La libreria dipende dalla libreria GitHub "TTS" di coqui, che richiede versioni Python in questo intervallo.

      +
    • +
    • +

      PyAudio: per creare uno stream audio di output

      +
    • +
    • +

      stream2sentence: per dividere il flusso di testo in ingresso in frasi

      +
    • +
    • +

      pyttsx3: Motore di conversione text-to-speech di sistema

      +
    • +
    • +

      pydub: per convertire i formati dei chunk audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motore di conversione text-to-speech di Azure

      +
    • +
    • +

      elevenlabs: Motore di conversione text-to-speech di Elevenlabs

      +
    • +
    • +

      coqui-TTS: Libreria text-to-speech XTTS di Coqui per TTS neurale locale di alta qualità

      +
    • +
    +

    Un ringraziamento speciale a Idiap Research Institute per il mantenimento di un fork di coqui tts.

    +
      +
    • +

      openai: per interagire con l'API TTS di OpenAI

      +
    • +
    • +

      gtts: Conversione text-to-speech di Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ja/api/index.html b/it/ja/api/index.html new file mode 100755 index 0000000..5a2d36b --- /dev/null +++ b/it/ja/api/index.html @@ -0,0 +1,2814 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    日本語

    + +

    設定

    +

    TextToAudioStreamの初期化パラメータ

    +

    TextToAudioStreamクラスを初期化する際、その動作をカスタマイズするための様々なオプションがあります。利用可能なパラメータは以下の通りです:

    +

    engine (BaseEngine)

    +
      +
    • : BaseEngine
    • +
    • 必須: はい
    • +
    • 説明: テキストから音声への合成を担当する基盤エンジンです。音声合成を有効にするには、BaseEngineまたはそのサブクラスのインスタンスを提供する必要があります。
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが開始されたときにトリガーされるオプションのコールバック関数です。セットアップやログ記録に使用できます。
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが終了したときに実行されるオプションのコールバック関数です。クリーンアップタスクやログ記録に使用できます。
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが開始されたときに呼び出されるオプションのコールバック関数です。UIの更新やイベントログに役立ちます。
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが停止したときに呼び出されるオプションのコールバック関数です。リソースのクリーンアップや後処理タスクに最適です。
    • +
    +

    on_character (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 一文字が処理されるたびに呼び出されるオプションのコールバック関数です。
    • +
    +

    output_device_index (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: None
    • +
    • 説明: 使用する出力デバイスのインデックスを指定します。Noneの場合はデフォルトデバイスを使用します。
    • +
    +

    tokenizer (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: nltk
    • +
    • 説明: 文分割に使用するトークナイザー(現在は"nltk"と"stanza"がサポートされています)。
    • +
    +

    language (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: en
    • +
    • 説明: 文分割に使用する言語。
    • +
    +

    muted (bool)

    +
      +
    • : 真偽値
    • +
    • 必須: いいえ
    • +
    • デフォルト値: False
    • +
    • 説明: グローバルなミュートパラメータ。Trueの場合、pyAudioストリームは開かれません。ローカルスピーカーを介した音声再生を無効にし(ファイルへの合成や音声チャンクの処理を行う場合)、playパラメータのミュート設定を上書きします。
    • +
    +

    level (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: logging.WARNING
    • +
    • 説明: 内部ロガーのログレベルを設定します。Pythonの組み込みloggingモジュールの任意の整数定数を使用できます。
    • +
    +

    使用例:

    +
    engine = YourEngine()  # あなたのエンジンで置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +```python
    +engine = YourEngine()  # あなたのエンジンに置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    メソッド

    +

    playplay_async

    +

    これらのメソッドはテキストから音声への合成と音声ストリームの再生を担当します。playはブロッキング関数である一方、play_asyncは別のスレッドで実行され、他の操作を続行できるという違いがあります。

    +
    パラメータ:
    +
    fast_sentence_fragment (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueに設定すると、文章の断片をより速く生成して再生することを優先します。レイテンシーが重要なアプリケーションに有用です。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、最初の文だけでなく、すべての文に対して高速な文章断片処理を適用します。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、単一の文章断片ではなく、複数の文章断片を生成することができます。
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • デフォルト値: 0.0
    • +
    • +

      説明: 音声再生の滑らかさと連続性に影響を与えるバッファリングのしきい値を秒単位で指定します。

      +
    • +
    • +

      動作原理: 新しい文を合成する前に、システムはバッファにbuffer_threshold_secondsで指定された時間以上の音声材料が残っているかチェックします。残っている場合、テキストジェネレータから別の文を取得します。これは、バッファに残っている音声の時間枠内で新しい文を取得して合成できると仮定しています。このプロセスにより、テキスト音声変換エンジンがより良い合成のためのコンテキストを持つことができ、ユーザー体験を向上させます。

      +
    • +
    +

    より高い値を設定すると、より多くの音声がプリバッファされ、再生中の無音や隙間が発生する可能性が減少します。途切れや一時停止が発生する場合は、この値を増やすことを検討してください。

    +
    minimum_sentence_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 合成する文として扱う文字列の最小文字数を設定します。これはテキストチャンクの処理と再生方法に影響します。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 最初の文章断片を生成する前に必要な最小文字数です。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: 有効にすると、音声に合成されるテキストチャンクをログに記録します。監査やデバッグに役立ちます。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueの場合、処理前に生成されたテキストをリセットします。
    • +
    +
    output_wavfile (str)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 設定すると、指定されたWAVファイルに音声を保存します。
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成された後に呼び出されるコールバック関数です。
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成される前に呼び出されるコールバック関数です。
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の音声チャンクが準備できたときに呼び出されるコールバック関数です。
    • +
    +
    tokenizer (str)
    +
      +
    • デフォルト値: "nltk"
    • +
    • 説明: 文分割に使用するトークナイザーです。現在は"nltk"と"stanza"をサポートしています。
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 入力テキストから文を分割するカスタム関数です。nltkやstanzaに満足できない場合、独自の軽量トークナイザーを提供できます。テキストを文字列として受け取り、分割された文を文字列のリストとして返す必要があります。
    • +
    +
    language (str)
    +
      +
    • デフォルト値: "en"
    • +
    • 説明: 文分割に使用する言語です。
    • +
    +
    context_size (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界検出のために使用される文字数です。より大きなコンテキストは文境界の検出精度を向上させます。
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界を検出する際の先読みのための追加のコンテキストサイズです。
    • +
    +
    muted (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueの場合、ローカルスピーカーを介した音声再生を無効にします。ファイルに合成したり、音声チャンクを再生せずに処理したりする場合に有用です。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • デフォルト値: ".?!;:,\n…)]}。-"
    • +
    • 説明: 文の区切り文字として扱われる文字の文字列です。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • デフォルト値: 15
    • +
    • 説明: 最初の文章断片を生成する必要がある単語数です。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ja/contributing/index.html b/it/ja/contributing/index.html new file mode 100755 index 0000000..062939c --- /dev/null +++ b/it/ja/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTSへの貢献

    +

    RealtimeTTSへの貢献を歓迎します! ここにあなたが貢献できるいくつかの方法があります:

    +
      +
    1. +

      バグの報告: バグを見つけた場合は、GitHubリポジトリにイシューを開いてください。

      +
    2. +
    3. +

      改善提案: 新機能や改善のアイデアはありますか? ぜひお聞かせください! 改善提案のために問題を開いてください。

      +
    4. +
    5. +

      コードの貢献: 新しい機能を追加したり、バグを修正したりしたいですか? すごい! これらの手順に従ってください。

      +
    6. +
    7. リポジトリをフォークする
    8. +
    9. 機能のための新しいブランチを作成する
    10. +
    11. 変更を加える
    12. +
    13. +

      変更内容を明確に説明したプルリクエストを提出してください

      +
    14. +
    15. +

      ドキュメント: タイポを修正したり、例を追加したり、わかりにくい部分を明確にすることで、私たちのドキュメントを改善する手助けをしてください。

      +
    16. +
    17. +

      新しいエンジンの追加: 新しいTTSエンジンのサポートを追加したい場合は、まず実装について議論するためにイシューを開いてください。

      +
    18. +
    +

    RealtimeTTSをより良くするために協力していただきありがとうございます!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ja/faq/index.html b/it/ja/faq/index.html new file mode 100755 index 0000000..e3d517e --- /dev/null +++ b/it/ja/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    よくある質問

    +

    RealtimeTTSに関するよくある質問の回答については、GitHubのFAQページをご覧ください。

    +

    このページでは、次のようなさまざまなトピックを取り上げています。

    +
      +
    • 異なるTTSエンジンの使用
    • +
    • 多言語テキストの取り扱い
    • +
    • パフォーマンスの最適化
    • +
    • 一般的な問題のトラブルシューティング
    • +
    +

    詳細な情報については、上記のリンクをご覧ください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ja/index.html b/it/ja/index.html new file mode 100755 index 0000000..b4ff346 --- /dev/null +++ b/it/ja/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    リアルタイムTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    リアルタイムアプリケーション向けの使いやすく、低遅延のテキスト読み上げライブラリ

    +

    プロジェクトについて

    +

    RealtimeTTSは、リアルタイムアプリケーション向けに設計された最先端のテキスト読み上げ(TTS)ライブラリです。 それは、テキストストリームを迅速に高品質な音声出力に変換する能力において際立っています。

    +

    主な特徴

    +
      +
    • 低遅延: ほぼ瞬時にテキストを音声に変換し、LLM出力と互換性があります
    • +
    • 高品質な音声: 明瞭で自然な音声を生成します
    • +
    • 複数のTTSエンジンサポート: OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS、System TTSをサポートします
    • +
    • 多言語対応
    • +
    • 堅牢で信頼性が高い: フォールバックメカニズムを通じて継続的な運用を保証し、障害が発生した場合には代替エンジンに切り替えて、一貫したパフォーマンスと信頼性を確保します。
    • +
    +

    インストール手順、使用例、およびAPIリファレンスについては、サイドバーを使用してドキュメントを参照してください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ja/installation/index.html b/it/ja/installation/index.html new file mode 100755 index 0000000..0fa5526 --- /dev/null +++ b/it/ja/installation/index.html @@ -0,0 +1,2155 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    日本語

    + +
    +

    注意: pip install realtimetts での基本インストールは推奨されなくなりました。代わりに pip install realtimetts[all] を使用してください。

    +
    +

    RealtimeTTSライブラリは、あなたのユースケースに応じたさまざまな依存関係のインストールオプションを提供します。 ニーズに応じてRealtimeTTSをインストールする方法はいくつかあります:

    +

    フルインストール

    +

    すべてのTTSエンジンに対応したRealtimeTTSをインストールするには:

    +
    pip install -U realtimetts[all]
    +
    +

    カスタムインストール

    +

    RealtimeTTSは、最小限のライブラリインストールでカスタムインストールを可能にします。 こちらが利用可能なオプションです。 +- すべて: すべてのエンジンがサポートされた完全なインストール。 +- システム: システム固有のTTS機能を含む (e.g., pyttsx3). +- azure: Azure Cognitive Services Speechサポートを追加します。 +- elevenlabs: ElevenLabs APIとの統合が含まれています。 +- openai: OpenAIの音声サービス用。 +- gtts: Google テキスト読み上げサポート。 +- coqui: Coqui TTSエンジンをインストールします。 +- minimal: エンジンなしで基本要件のみをインストール (only needed if you want to develop an own engine)

    +

    ローカルの神経系Coqui TTSでのみRealtimeTTSをインストールしたい場合は、次のようにしてください:

    +
    pip install realtimetts[coqui]
    +
    +

    例えば、Azure Cognitive Services Speech、ElevenLabs、OpenAIのサポートのみでRealtimeTTSをインストールしたい場合:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    仮想環境のインストール

    +

    仮想環境内で完全なインストールを行いたい方は、以下の手順に従ってください。

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.
    +```バット
    +python.exe -m pip install --pipをアップグレード
    +pip install -U realtimetts[all]
    +テキストを翻訳してください: ```
    +
    +[CUDAインストール](#cuda-installation)に関する詳細情報。
    +
    +## エンジン要件
    +
    +RealtimeTTSがサポートする異なるエンジンには、それぞれ独自の要件があります。 選択したエンジンに基づいてこれらの要件を満たすようにしてください。
    +
    +### システムエンジン
    +`SystemEngine`は、システムに内蔵されたTTS機能とそのまま使えます。 追加の設定は必要ありません。
    +
    +### GTTSEngine
    +`GTTSEngine`は、Google翻訳のテキスト読み上げAPIを使用して、すぐに使える状態で動作します。 追加の設定は必要ありません。
    +
    +### OpenAIエンジン
    +`OpenAIEngine`を使用するには:
    +- 環境変数 OPENAI_API_KEY を設定する
    +- ffmpeg をインストールする([CUDA インストール](#cuda-installation)の3番目のポイントを参照)
    +
    +### AzureEngine
    +`AzureEngine`を使用するには、次のものが必要です:
    +- Microsoft Azure Text-to-Speech APIキー(AzureEngineコンストラクタのパラメータ「speech_key」または環境変数AZURE_SPEECH_KEYで提供されます)
    +- マイクロソフトAzureサービスリージョン。
    +
    +`AzureEngine`を初期化する際に、これらの資格情報が利用可能で正しく設定されていることを確認してください。
    +
    +### ElevenlabsEngine
    +`ElevenlabsEngine`には、次のものが必要です:
    +- Elevenlabs APIキー(ElevenlabsEngineコンストラクタのパラメータ「api_key」または環境変数ELEVENLABS_API_KEYで提供されます)
    +- システムに`mpv`がインストールされています (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).
    +
    +  🔹 **`mpv`のインストール:**
    +  - **macOS**:
    +    ```plaintext
    +brew install mpv
    +
    +
      +
    • LinuxおよびWindows: インストール手順についてはmpv.ioをご覧ください。
    • +
    +

    CoquiEngine

    +

    高品質でローカルなニューラルTTSをボイスクローン機能付きで提供します。

    +

    まず、ニューラルTTSモデルをダウンロードします。 ほとんどの場合、GPU合成を使用すればリアルタイムで十分な速度になります。 約4〜5GBのVRAMが必要です。

    +
      +
    • 声をクローンするには、ソース音声を含むWAVファイルのファイル名を「voice」パラメータとしてCoquiEngineコンストラクタに提出してください。
    • +
    • 声のクローンは、短い(約5〜30秒)サンプルを含む22050 Hzモノ16ビットWAVファイルで最も効果的です。
    • +
    +

    ほとんどのシステムでは、リアルタイムで十分な速度を出すためにGPUサポートが必要です。さもなければ、カクつきが発生します。

    +

    CUDAのインストール

    +

    これらの手順は、より良いパフォーマンスを必要とし、互換性のあるNVIDIA GPUを持っている方に推奨されます。

    +
    +

    注意: お使いのNVIDIA GPUがCUDAをサポートしているか確認するには、公式CUDA GPUリストをご覧ください。

    +
    +

    CUDAをサポートするTorchを使用するには、次の手順に従ってください。

    +
    +

    注意: 新しいPyTorchのインストールでは、かもしれない(未確認)がToolkit(およびおそらくcuDNN)のインストールを必要としないかもしれません。

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkitをインストールする: + 例えば、Toolkit 12.Xをインストールするには、

      +
        +
      • NVIDIA CUDA Downloadsを訪れてください。
      • +
      • オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。
      • +
      +

      または、Toolkit 11.8をインストールするには、 +- NVIDIA CUDA Toolkit Archiveをご覧ください。 +- オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    2. +
    3. +

      NVIDIA cuDNNをインストールする:

      +

      例えば、CUDA 11.x用のcuDNN 8.7.0をインストールするには、次の手順を行ってください。 +- NVIDIA cuDNNアーカイブを訪問してください。 +「Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x」をクリックしてください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    4. +
    5. +

      ffmpegをインストールする:

      +

      ffmpegウェブサイトからお使いのOS用のインストーラーをダウンロードできます。

      +

      またはパッケージマネージャーを使用してください:

      +
        +
      • +

        UbuntuまたはDebianの場合: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linuxで: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrewを使用してMacOSで (https://brew.sh/): + ```plaintext +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolateyを使用してWindowsで** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **Scoopを使用してWindowsで** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    scoop install ffmpeg
    +
    +
    
    +4. **CUDAサポート付きのPyTorchをインストールする**:
    +
    +    CUDAでGPUサポートを有効にするためにPyTorchのインストールをアップグレードするには、特定のCUDAバージョンに基づいてこれらの指示に従ってください。 これは、CUDA機能を使用してRealtimeSTTのパフォーマンスを向上させたい場合に役立ちます。
    +
    +    - **CUDA 11.8の場合:**
    +
    +        PyTorchとTorchaudioをCUDA 11.8に対応させるために、次のコマンドを使用してください。
    +
    +        ```plaintext
    +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        テキストを翻訳する: ```
    +
    +- **CUDA 12.Xの場合:**
    +
    +
    +    PyTorchとTorchaudioをCUDA 12.Xに対応させるために、次のコマンドを実行してください。
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +テキストを翻訳する:

    +
    `2.3.1` をあなたのシステムと要件に合ったPyTorchのバージョンに置き換えてください。
    +
    +
      +
    1. 互換性の問題を解決するための修正: + ライブラリの互換性の問題が発生した場合は、これらのライブラリを固定バージョンに設定してみてください。
    2. +
    +

    テキストを翻訳する: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ja/usage/index.html b/it/ja/usage/index.html new file mode 100755 index 0000000..7cda09b --- /dev/null +++ b/it/ja/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    使用

    +

    クイックスタート

    +

    基本的な使用例は次のとおりです。

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # あなたのTTSエンジンに置き換えてください +ストリーム = TextToAudioStream(engine) +stream.feed("こんにちは、世界!") 今日はどうですか? +stream.play_async()

    +

    フィードテキスト

    +

    個別の文字列を入力できます:

    +
    stream.feed("こんにちは、これは文です。")
    +
    +

    または、リアルタイムストリーミングのためにジェネレーターやキャラクターイテレーターを使用することもできます。

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```チャット完了。作成(
    +        モデル="gpt-3.5-turbo",
    +        メッセージ=[{"役割": "ユーザー", "内容": プロンプト}],
    +        ストリーム=True
    +    ):
    +        もし (text_chunk := chunk["choices"]テキストを翻訳してください。["デルタ"].get("content")) は None ではない:
    +            テキストチャンクを生成
    +
    +テキストストリーム = 書き込み("A three-sentence relaxing speech.")
    +
    +ストリームにテキストストリームをフィードする
    +
    +```python
    +char_iterator = iter("文字を1文字ずつストリーミングします。")
    +stream.feed(char_iterator)
    +
    +

    再生

    +

    非同期で:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同時に:

    +
    stream.play()
    +
    +

    ライブラリのテスト

    +

    テストサブディレクトリには、RealtimeTTSライブラリの機能を評価し理解するための一連のスクリプトが含まれています。

    +

    ほとんどのテストはまだ「古い」OpenAI API(<1.0.0)に依存していることに注意してください。 新しいOpenAI APIの使用方法はopenai_1.0_test.pyで示されています。

    +
      +
    • +

      simple_test.py

      +
        +
      • 説明: ライブラリの最も簡単な使い方を示す「ハローワールド」スタイルのデモ。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 説明: ライブラリが提供するほとんどの機能を紹介する包括的なデモ。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 説明: ローカルのcoqui TTSエンジンのテスト。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 6つの異なる言語へのリアルタイム翻訳。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依存関係: pip install openai realtimestt を実行してください。
      • +
      • 説明: ウェイクワードがアクティブになり、OpenAI APIへの音声ベースのユーザーインターフェース。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依存関係: pip install openai keyboard realtimesttを実行してください。
      • +
      • 説明: AI会話を始める前に、TTSエンジンと声を選択してください。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 20行のコードで作る基本的なトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: ライブラリを大規模言語モデルに統合する簡単なデモ (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: コールバックを紹介し、実際のアプリケーション環境でレイテンシー時間を確認できるようにします。
      • +
      +
    • +
    +

    一時停止、再開、停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止中のストリームを再開する:

    +
    stream.resume()
    +
    +

    すぐに配信を停止してください。

    +
    stream.stop()
    +
    +

    要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必要条件: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリは、coquiのGitHubライブラリ「TTS」に依存しており、これにはこの範囲のPythonバージョンが必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するために

      +
    • +
    • +

      stream2sentence: 入力されたテキストストリームを文に分割する

      +
    • +
    • +

      pyttsx3: システム音声合成エンジン

      +
    • +
    • +

      pydub: オーディオチャンクのフォーマットを変換するために

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure テキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabs テキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTSのためのCoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap Research Institutecoqui ttsのフォークを維持していることに感謝します。

    +
      +
    • +

      openai: OpenAIのTTS APIと対話するために

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ko/api/index.html b/it/ko/api/index.html new file mode 100755 index 0000000..57c470c --- /dev/null +++ b/it/ko/api/index.html @@ -0,0 +1,2792 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    한국어

    + +

    구성

    +

    TextToAudioStream 초기화 매개변수

    +

    TextToAudioStream 클래스를 초기화할 때, 그 동작을 사용자 정의할 수 있는 다양한 옵션이 있습니다. 사용 가능한 매개변수는 다음과 같습니다:

    +

    engine (BaseEngine)

    +
      +
    • 유형: BaseEngine
    • +
    • 필수: 네 텍스트를 오디오로 변환하는 데 책임이 있는 기본 엔진. 오디오 합성을 활성화하려면 BaseEngine 또는 그 하위 클래스의 인스턴스를 제공해야 합니다.
    • +
    +

    on_text_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 시작될 때 호출됩니다. 필요한 설정이나 로깅에 사용하세요.
    • +
    +

    on_text_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 끝날 때 활성화됩니다. 이것을 정리 작업이나 로깅에 사용할 수 있습니다.
    • +
    +

    on_audio_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 시작될 때 호출됩니다. UI 업데이트나 이벤트 로깅에 유용합니다.
    • +
    +

    on_audio_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 중지될 때 호출됩니다. 리소스 정리나 후처리 작업에 적합합니다.
    • +
    +

    on_character (callable)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 단일 문자가 처리될 때 호출됩니다.
    • +
    +

    output_device_index (int)

    +
      +
    • 유형: 정수
    • +
    • 필수: 아니요 사용할 출력 장치 인덱스를 지정합니다. 아무도 기본 장치를 사용하지 않습니다.
    • +
    +

    tokenizer (string)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요
    • +
    • 기본값: nltk
    • +
    • 설명: 문장 분할에 사용할 토크나이저 (currently "nltk" and "stanza" are supported).
    • +
    +

    language (문자열)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요 문장 분할에 사용할 언어.
    • +
    +

    muted (bool)

    +
      +
    • 유형: Bool
    • +
    • 필수: 아니오
    • +
    • 기본값: False
    • +
    • 설명: 전역 음소거 매개변수. 참이면, pyAudio 스트림이 열리지 않습니다. 로컬 스피커를 통한 오디오 재생을 비활성화합니다 (파일로 합성하거나 오디오 청크를 처리하려는 경우) 및 재생 매개변수의 음소거 설정을 무시합니다.
    • +
    +

    level (int)

    +
      +
    • Type: 정수
    • +
    • Required: 아니요
    • +
    • 기본값: logging.WARNING
    • +
    • 설명: 내부 로거의 로깅 수준을 설정합니다. 이는 Python의 내장 logging 모듈에서 제공하는 정수 상수일 수 있습니다.
    • +
    +

    예시 사용법:

    +
    engine = YourEngine()  # 엔진을 당신의 엔진으로 대체하세요
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    방법

    +

    playplay_async

    +

    이 방법들은 텍스트-오디오 합성을 실행하고 오디오 스트림을 재생하는 역할을 합니다. 차이점은 play가 블로킹 함수인 반면, play_async는 별도의 스레드에서 실행되어 다른 작업이 진행될 수 있다는 것입니다.

    +
    매개변수:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: True로 설정하면, 이 방법은 속도를 우선시하여 문장 조각을 더 빨리 생성하고 재생합니다. 이는 지연 시간이 중요한 애플리케이션에 유용합니다.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 첫 번째 문장뿐만 아니라 모든 문장에 대해 빠른 문장 조각 처리를 적용합니다.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 단일 문장 조각 대신 여러 문장 조각을 생성할 수 있습니다.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • 기본값: 0.0
    • +
    • +

      설명: 버퍼링 임계값을 초 단위로 지정하며, 이는 오디오 재생의 부드러움과 연속성에 영향을 미칩니다.

      +
    • +
    • +

      작동 방식: 새로운 문장을 합성하기 전에 시스템은 버퍼에 남아 있는 오디오 자료가 buffer_threshold_seconds로 지정된 시간보다 더 많은지 확인합니다. 그렇다면, 텍스트 생성기에서 또 다른 문장을 가져오는데, 이는 버퍼에 남아 있는 오디오의 시간 창 내에서 이 새로운 문장을 가져오고 합성할 수 있다고 가정합니다. 이 과정은 텍스트 음성 변환 엔진이 더 나은 합성을 위해 더 많은 맥락을 갖도록 하여 사용자 경험을 향상시킵니다.

      +
    • +
    +

    더 높은 값은 더 많은 미리 버퍼링된 오디오를 보장하여 재생 중 침묵이나 간격이 발생할 가능성을 줄여줍니다. 중단이나 일시 정지가 발생하면 이 값을 늘려보세요.

    +
    minimum_sentence_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 문자열을 합성할 문장으로 간주하기 위한 최소 문자 길이를 설정합니다. 이것은 텍스트 청크가 처리되고 재생되는 방식에 영향을 미칩니다.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 양보하기 전에 첫 번째 문장 조각에 필요한 최소 문자 수.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 활성화되면, 텍스트 조각이 오디오로 합성될 때 로그를 기록합니다. 감사 및 디버깅에 유용합니다.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: 참이면, 처리하기 전에 생성된 텍스트를 재설정하세요.
    • +
    +
    output_wavfile (str)
    +
      +
    • 기본값: None
    • +
    • 설명: 설정된 경우, 오디오를 지정된 WAV 파일로 저장합니다.
    • +
    +
    on_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 문장 조각이 합성된 후 호출되는 콜백 함수.
    • +
    +
    before_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: 없음
    • +
    • 설명: 단일 문장 조각이 합성되기 전에 호출되는 콜백 함수.
    • +
    +
    on_audio_chunk (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 오디오 청크가 준비되면 호출되는 콜백 함수.
    • +
    +
    tokenizer (str)
    +
      +
    • 기본값: "nltk"
    • +
    • 설명: 문장 분리를 위한 토크나이저. 현재 "nltk"와 "stanza"를 지원합니다.
    • +
    +
    tokenize_sentences (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 입력 텍스트에서 문장을 토큰화하는 사용자 정의 함수. nltk와 stanza에 만족하지 않으면 자신만의 경량 토크나이저를 제공할 수 있습니다. 텍스트를 문자열로 받아서 문장으로 나눈 후 문자열 목록으로 반환해야 합니다.
    • +
    +
    language (str)
    +
      +
    • 기본값: "en"
    • +
    • 설명: 문장 분할에 사용할 언어.
    • +
    +
    context_size (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계 감지를 위한 컨텍스트를 설정하는 데 사용되는 문자 수. 더 넓은 맥락이 문장 경계를 감지하는 정확성을 높입니다.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계를 감지할 때 미리 보기 위한 추가 컨텍스트 크기.
    • +
    +
    muted (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 참이면, 로컬 스피커를 통한 오디오 재생을 비활성화합니다. 파일로 합성하거나 오디오 청크를 재생하지 않고 처리할 때 유용합니다.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 기본값: ".?!;:,\n…)]}。-" 문장 구분자로 간주되는 문자 문자열.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 기본값: 15
    • +
    • 설명: 첫 번째 문장 조각이 강제로 생성되는 단어 수.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ko/contributing/index.html b/it/ko/contributing/index.html new file mode 100755 index 0000000..c661250 --- /dev/null +++ b/it/ko/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS에 기여하기

    +

    RealtimeTTS에 기여해 주시면 환영합니다! 여기 당신이 기여할 수 있는 몇 가지 방법이 있습니다:

    +
      +
    1. +

      버그 신고: 버그를 발견하셨다면, 저희 GitHub 저장소에 이슈를 열어주세요.

      +
    2. +
    3. +

      개선 사항 제안하기: 새로운 기능이나 개선 사항에 대한 아이디어가 있나요? 우리는 그것들을 듣고 싶어요! 개선 사항을 제안하기 위해 이슈를 열어주세요.

      +
    4. +
    5. +

      코드 기여: 새로운 기능을 추가하거나 버그를 수정하고 싶으신가요? 대단해! 다음 단계를 따라주세요:

      +
    6. +
    7. 저장소를 포크하세요
    8. +
    9. 기능을 위한 새로운 브랜치를 만드세요
    10. +
    11. +

      변경 사항을 적용하세요 + 변경 사항에 대한 명확한 설명과 함께 풀 리퀘스트를 제출하세요.

      +
    12. +
    13. +

      문서화: 오타를 수정하거나 예제를 추가하거나 혼란스러운 부분을 명확히 하여 문서화를 개선하는 데 도움을 주세요.

      +
    14. +
    15. +

      새 엔진 추가하기: 새로운 TTS 엔진을 추가하고 싶다면, 먼저 구현에 대해 논의하기 위해 이슈를 열어주세요.

      +
    16. +
    +

    RealtimeTTS를 더 좋게 만드는 데 도움을 주셔서 감사합니다!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ko/faq/index.html b/it/ko/faq/index.html new file mode 100755 index 0000000..839970f --- /dev/null +++ b/it/ko/faq/index.html @@ -0,0 +1,1856 @@ + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    자주 묻는 질문

    +

    RealtimeTTS에 대한 자주 묻는 질문에 대한 답변은 GitHub의 FAQ 페이지를 참조해 주세요.

    +

    이 페이지는 다음과 같은 다양한 주제를 다룹니다:

    +
      +
    • 다양한 TTS 엔진의 사용
    • +
    • 다국어 텍스트 처리
    • +
    • 성능 최적화
    • +
    • 일반적인 문제 해결
    • +
    +

    자세한 정보는 위의 링크를 방문해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ko/index.html b/it/ko/index.html new file mode 100755 index 0000000..de84df8 --- /dev/null +++ b/it/ko/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    실시간TTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    실시간 애플리케이션을 위한 사용하기 쉽고 저지연 텍스트 음성 변환 라이브러리

    +

    프로젝트 소개

    +

    RealtimeTTS는 실시간 애플리케이션을 위해 설계된 최첨단 텍스트 음성 변환(TTS) 라이브러리입니다. 텍스트 스트림을 빠르게 고품질의 오디오 출력으로 변환하는 능력에서 두드러집니다.

    +

    주요 특징

    +
      +
    • 저지연: 거의 즉각적인 텍스트 음성 변환, LLM 출력과 호환 가능
    • +
    • 고품질 오디오: 명확하고 자연스러운 음성을 생성합니다.
    • +
    • 다양한 TTS 엔진 지원: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS 및 System TTS를 지원합니다.
    • +
    • 다국어 지원
    • +
    • 견고하고 신뢰할 수 있음: 백업 메커니즘을 통해 지속적인 운영을 보장하며, 중단 시 대체 엔진으로 전환하여 일관된 성능과 신뢰성을 보장합니다.
    • +
    +

    설치 지침, 사용 예제 및 API 참조를 보려면 사이드바를 사용하여 문서를 탐색해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ko/installation/index.html b/it/ko/installation/index.html new file mode 100755 index 0000000..e61acb5 --- /dev/null +++ b/it/ko/installation/index.html @@ -0,0 +1,2267 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    한국어

    + +
    +

    참고: 이제 pip install realtimetts로 기본 설치하는 것은 권장되지 않으며, 대신 pip install realtimetts[all]를 사용하세요.

    +
    +

    RealtimeTTS 라이브러리는 사용 사례에 맞는 다양한 종속성 설치 옵션을 제공합니다. 여기 당신의 필요에 따라 RealtimeTTS를 설치할 수 있는 다양한 방법이 있습니다:

    +

    전체 설치

    +

    모든 TTS 엔진을 지원하는 RealtimeTTS를 설치하려면:

    +
    pip install -U realtimetts[all]
    +
    +

    맞춤 설치

    +

    RealtimeTTS는 최소한의 라이브러리 설치로 맞춤 설치를 허용합니다. 다음은 이용 가능한 옵션입니다: +- 모두: 모든 엔진이 지원되는 전체 설치. +- 시스템: 시스템별 TTS 기능 포함 (e.g., pyttsx3). +- azure: Azure Cognitive Services Speech 지원을 추가합니다. +- elevenlabs: ElevenLabs API와의 통합을 포함합니다. +- openai: OpenAI 음성 서비스용. +- gtts: 구글 텍스트 음성 변환 지원. +- coqui: Coqui TTS 엔진을 설치합니다. +- 최소: 엔진 없이 기본 요구 사항만 설치 (only needed if you want to develop an own engine)

    +

    로컬 신경망 Coqui TTS 사용을 위해 RealtimeTTS만 설치하고 싶다고 가정해 보세요, 그러면 다음을 사용해야 합니다:

    +
    pip install realtimetts[coqui]
    +
    +

    예를 들어, Azure Cognitive Services Speech, ElevenLabs, OpenAI 지원만으로 RealtimeTTS를 설치하고 싶다면:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    가상 환경 설치

    +

    가상 환경 내에서 전체 설치를 수행하려는 분들은 다음 단계를 따르세요:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA 설치에 대한 자세한 정보.

    +

    엔진 요구 사항

    +

    RealtimeTTS에서 지원하는 다양한 엔진은 고유한 요구 사항을 가지고 있습니다. 선택한 엔진에 따라 이러한 요구 사항을 충족하도록 하십시오.

    +

    시스템엔진

    +

    SystemEngine은 시스템에 내장된 TTS 기능과 함께 즉시 사용할 수 있습니다. 추가 설정이 필요하지 않습니다.

    +

    GTTSEngine

    +

    GTTSEngine은 Google Translate의 텍스트 음성 변환 API를 사용하여 즉시 작동합니다. 추가 설정이 필요 없습니다.

    +

    오픈AI엔진

    +

    OpenAIEngine을 사용하려면: +- 환경 변수 OPENAI_API_KEY 설정 +- ffmpeg 설치 (참고: CUDA 설치 3번 항목)

    +

    AzureEngine

    +

    AzureEngine을 사용하려면 다음이 필요합니다: +- Microsoft Azure Text-to-Speech API 키 (AzureEngine 생성자 매개변수 "speech_key" 또는 환경 변수 AZURE_SPEECH_KEY를 통해 제공됨) +- 마이크로소프트 애저 서비스 지역.

    +

    AzureEngine을 초기화할 때 이러한 자격 증명이 준비되어 있고 올바르게 구성되어 있는지 확인하세요.

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine을 사용하려면 다음이 필요합니다: +- Elevenlabs API 키 (ElevenlabsEngine 생성자 매개변수 "api_key"를 통해 제공되거나 환경 변수 ELEVENLABS_API_KEY에 설정됨) +- 시스템에 mpv가 설치되어 있습니다. (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 mpv 설치하기: + - macOS: + plaintext + brew install mpv

    +
      +
    • 리눅스와 윈도우: 설치 지침은 mpv.io를 방문하세요.
    • +
    +

    코키엔진

    +

    고품질의 로컬 신경 TTS를 음성 클로닝과 함께 제공합니다.

    +

    먼저 신경 TTS 모델을 다운로드합니다. 대부분의 경우 GPU 합성을 사용하면 실시간으로 충분히 빠를 것입니다. 약 4-5GB의 VRAM이 필요합니다.

    +
      +
    • 음성을 복제하려면 소스 음성이 포함된 WAV 파일의 파일 이름을 "voice" 매개변수로 CoquiEngine 생성자에게 제출하십시오.
    • +
    • 음성 복제는 22050 Hz 모노 16비트 WAV 파일에 짧은 (~5-30초) 샘플이 포함된 경우에 가장 잘 작동합니다.
    • +
    +

    대부분의 시스템에서는 실시간으로 충분히 빠르게 실행하기 위해 GPU 지원이 필요하며, 그렇지 않으면 끊김 현상이 발생할 것입니다.

    +

    CUDA 설치

    +

    이 단계들은 더 나은 성능을 요구하고 호환 가능한 NVIDIA GPU를 가진 분들에게 권장됩니다.

    +
    +

    참고: NVIDIA GPU가 CUDA를 지원하는지 확인하려면 공식 CUDA GPU 목록을 방문하세요.

    +
    +

    CUDA를 통해 지원되는 토치를 사용하려면 다음 단계를 따르세요:

    +
    +

    참고: 최신 pytorch 설치는 여기 (확인되지 않음)에서 Toolkit (및 아마도 cuDNN) 설치가 더 이상 필요하지 않을 수 있습니다.

    +
    +
      +
    1. +

      NVIDIA CUDA 툴킷 설치: + 예를 들어, Toolkit 12.X를 설치하려면

      +
        +
      • NVIDIA CUDA 다운로드를 방문하세요.
      • +
      • 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요.
      • +
      • 소프트웨어를 다운로드하고 설치하세요.
      • +
      +

      또는 Toolkit 11.8을 설치하려면, +- NVIDIA CUDA Toolkit 아카이브를 방문하세요. +- 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    2. +
    3. +

      NVIDIA cuDNN 설치:

      +

      예를 들어, CUDA 11.x에 cuDNN 8.7.0을 설치하려면 +- NVIDIA cuDNN 아카이브를 방문하세요. +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x"를 클릭하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    4. +
    5. +

      ffmpeg 설치:

      +

      ffmpeg 웹사이트에서 운영 체제에 맞는 설치 프로그램을 다운로드할 수 있습니다.

      +

      또는 패키지 관리자를 사용하세요:

      +
        +
      • +

        우분투나 데비안에서: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linux에서: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrew를 사용한 MacOS에서 (https://brew.sh/): + ```bash +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolatey를 사용한 Windows에서** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +        ```
    +
    +    - **Scoop을 사용하여 Windows에서** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```
    +        스쿱 설치 ffmpeg
    +
    +
      +
    1. +

      CUDA 지원으로 PyTorch 설치하기:

      +

      CUDA를 사용하여 GPU 지원을 활성화하려면, 특정 CUDA 버전에 따라 다음 지침을 따르세요. CUDA 기능으로 RealtimeSTT의 성능을 향상시키고자 한다면 유용합니다.

      +
        +
      • +

        CUDA 11.8의 경우:

        +

        PyTorch와 Torchaudio를 CUDA 11.8을 지원하도록 업데이트하려면 다음 명령어를 사용하세요:

        +

        ```bash +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      +
    2. +
    +
            텍스트를 번역할 내용: ```
    +
    +    - **CUDA 12.X의 경우:**
    +
    +
    +        PyTorch와 Torchaudio를 CUDA 12.X를 지원하도록 업데이트하려면 다음을 실행하세요:
    +
    +        ```bash
    +pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +
        텍스트를 번역할 내용: ```
    +
    +`2.3.1`을(를) 귀하의 시스템 및 요구 사항에 맞는 PyTorch 버전으로 교체하세요.
    +
    +
      +
    1. 호환성 문제를 해결하기 위한 수정: + 라이브러리 호환성 문제에 직면하면, 이 라이브러리들을 고정된 버전으로 설정해 보세요:
    2. +
    +

    텍스트를 번역할 내용: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/ko/usage/index.html b/it/ko/usage/index.html new file mode 100755 index 0000000..e20c7b6 --- /dev/null +++ b/it/ko/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    사용 방법

    +

    빠른 시작

    +

    기본적인 사용 예는 다음과 같습니다:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +
    +engine = SystemEngine() # TTS 엔진을 지정
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    텍스트 피드

    +

    개별 문자열을 입력할 수 있습니다:

    +
    stream.feed("안녕하세요, 이것은 문장입니다.")
    +
    +

    실시간 스트리밍용 제너레이터나 문자 이터레이터를 피드하는 것도 가능합니다:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    재생

    +

    비동기 재생:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    동기 재생:

    +
    stream.play()
    +
    +

    라이브러리 테스트

    +

    test 서브디렉토리에는 RealtimeTTS 라이브러리의 기능을 평가하고 이해하기 위한 스크립트가 포함되어 있습니다.

    +

    오래된 OpenAI API (<1.0.0)에 의존하는 테스트가 많기 때문에, 새로운 OpenAI API의 사용 예는 openai_1.0_test.py에서 확인할 수 있습니다.

    +
      +
    • +

      simple_test.py

      +
        +
      • 설명: 라이브러리의 가장 간단한 사용법을 보여주는 "Hello World" 스타일의 데모.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 설명: 라이브러리의 대부분 기능을 포괄하는 종합적인 데모.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 설명: 로컬 Coqui TTS 엔진의 테스트.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하세요.
      • +
      • 설명: 6개의 다른 언어로 실시간 번역.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하십시오.
      • +
      • 설명: 시작 단어로 시작되는 음성 기반의 OpenAI API 인터페이스.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 의존성: pip install openai keyboard realtimestt를 실행하십시오.
      • +
      • 설명: TTS 엔진과 목소리를 선택하여 AI 대화를 시작하세요.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 의존성: pip install openai realtimestt 실행.
      • +
      • 説明: 20行のコードで作成されたシンプルなトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: ラージランゲージモデル(LLM)との統合の簡単なデモ。
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: コールバックを紹介し、実環境での待機時間をチェック可能。
      • +
      +
    • +
    +

    一時停止、再開 & 停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止したストリームを再開:

    +
    stream.resume()
    +
    +

    ストリームをすぐに停止:

    +
    stream.stop()
    +
    +

    必要要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必須: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリはCoquiのGitHubライブラリ「TTS」に依存しており、Pythonのこのバージョン範囲が必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するため

      +
    • +
    • +

      stream2sentence: 入力されるテキストストリームを文単位に分割するため

      +
    • +
    • +

      pyttsx3: システムテキスト読み上げエンジン

      +
    • +
    • +

      pydub: オーディオチャンクの形式変換用

      +
    • +
    • +

      azure-cognitiveservices-speech: Azureテキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabsテキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTS用CoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap研究所が管理するCoqui TTSのフォークに感謝。

    +
      +
    • +

      openai: OpenAIのTTS APIとのインタラクション用

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/usage/index.html b/it/usage/index.html new file mode 100755 index 0000000..dd724e9 --- /dev/null +++ b/it/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Utilizzo

    +

    Avvio Rapido

    +

    Ecco un esempio di utilizzo base:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # sostituisci con il tuo motore TTS
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Inserimento del Testo

    +

    Puoi inserire singole stringhe:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oppure puoi inserire generatori e iteratori di caratteri per lo streaming in tempo reale:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Riproduzione

    +

    In modo asincrono:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    In modo sincrono:

    +
    stream.play()
    +
    +

    Test della Libreria

    +

    La sottodirectory test contiene una serie di script per aiutarti a valutare e comprendere le capacità della libreria RealtimeTTS.

    +

    Nota che la maggior parte dei test si basa ancora sulla "vecchia" API OpenAI (<1.0.0). L'utilizzo della nuova API OpenAI è dimostrato in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descrizione: Una dimostrazione stile "hello world" dell'utilizzo più semplice della libreria.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descrizione: Una dimostrazione completa che mostra la maggior parte delle funzionalità fornite dalla libreria.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descrizione: Test del motore TTS coqui locale.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Traduzioni in tempo reale in sei lingue diverse.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Interfaccia utente vocale attivata da parola chiave per l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dipendenze: Esegui pip install openai keyboard realtimestt.
      • +
      • Descrizione: Scegli il motore TTS e la voce prima di iniziare la conversazione con l'IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Un talkbot base in 20 righe di codice.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Semplice dimostrazione di come integrare la libreria con i modelli linguistici di grandi dimensioni (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Mostra i callback e ti permette di verificare i tempi di latenza in un ambiente applicativo reale.
      • +
      +
    • +
    +

    Pausa, Ripresa e Stop

    +

    Metti in pausa lo stream audio:

    +
    stream.pause()
    +
    +

    Riprendi uno stream in pausa:

    +
    stream.resume()
    +
    +

    Ferma immediatamente lo stream:

    +
    stream.stop()
    +
    +

    Requisiti Spiegati

    +
      +
    • Versione Python:
    • +
    • Richiesto: Python >= 3.9, < 3.13
    • +
    • +

      Motivo: La libreria dipende dalla libreria GitHub "TTS" di coqui, che richiede versioni Python in questo intervallo.

      +
    • +
    • +

      PyAudio: per creare uno stream audio di output

      +
    • +
    • +

      stream2sentence: per dividere il flusso di testo in ingresso in frasi

      +
    • +
    • +

      pyttsx3: Motore di conversione text-to-speech di sistema

      +
    • +
    • +

      pydub: per convertire i formati dei chunk audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motore di conversione text-to-speech di Azure

      +
    • +
    • +

      elevenlabs: Motore di conversione text-to-speech di Elevenlabs

      +
    • +
    • +

      coqui-TTS: Libreria text-to-speech XTTS di Coqui per TTS neurale locale di alta qualità

      +
    • +
    +

    Un ringraziamento speciale a Idiap Research Institute per il mantenimento di un fork di coqui tts.

    +
      +
    • +

      openai: per interagire con l'API TTS di OpenAI

      +
    • +
    • +

      gtts: Conversione text-to-speech di Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/zh/api/index.html b/it/zh/api/index.html new file mode 100755 index 0000000..ed7a796 --- /dev/null +++ b/it/zh/api/index.html @@ -0,0 +1,2791 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +

    配置

    +

    TextToAudioStream 的初始化参数

    +

    初始化 TextToAudioStream 类时,有多种选项可自定义其行为。以下是可用参数:

    +

    engine (BaseEngine)

    +
      +
    • 类型**: 基础引擎
    • +
    • 必需**: 是
    • +
    • 描述***: 负责文本到音频合成的底层引擎。您必须提供一个 BaseEngine 或其子类的实例才能启用音频合成。
    • +
    +

    on_text_stream_start(可调用)

    +
      +
    • 类型**: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 这个可选的回调函数会在文本流开始时触发。可用于任何设置或日志记录。
    • +
    +

    on_text_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当文本流结束时,这个可选的回调函数将被激活。可用于清理任务或日志记录。
    • +
    +

    on_audio_stream_start(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流启动时,会调用这个可选的回调函数。可用于用户界面更新或事件记录。
    • +
    +

    on_audio_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流停止时,会调用这个可选的回调函数。是资源清理或后处理任务的理想选择。
    • +
    +

    on_character(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 处理单个字符时调用此可选回调函数。
    • +
    +

    output_device_index (int)

    +
      +
    • 类型***: 整数
    • +
    • 要求**: 无
    • +
    • 默认**: 无
    • +
    • 描述***: 指定要使用的输出设备索引。无则使用默认设备。
    • +
    +

    tokenizer (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 无
    • +
    • 默认**: nltk
    • +
    • 描述**: 用于分句的标记符(目前支持 “nltk ”和 “stanza”)。
    • +
    +

    language (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 否
    • +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +

    muted (bool)

    +
      +
    • 类型***: 布尔
    • +
    • 要求**: 否
    • +
    • 默认**: 假
    • +
    • 描述***: 全局静音参数。如果为 True,则不会打开 pyAudio 流。禁止通过本地扬声器播放音频(以防要合成到文件或处理音频块),并覆盖播放参数静音设置。
    • +
    +

    level (int)

    +
      +
    • 类型**: 整数
    • +
    • 必须**: 无
    • +
    • 默认**: 日志警告
    • +
    • 描述***: 设置内部日志记录器的日志记录级别。可以是 Python 内置的 logging 模块中的任意整数常量。
    • +
    +

    使用示例:

    +
    engine = YourEngine() # 用你的引擎代替
    +stream = TextToAudioStream(
    +    engine=engine、
    +    on_text_stream_start=my_text_start_func、
    +    on_text_stream_stop=my_text_stop_func、
    +    on_audio_stream_start=my_audio_start_func、
    +    on_audio_stream_stop=my_audio_stop_func、
    +    级别=logging.INFO
    +)
    +
    +

    方法

    +

    playplay_async 方法

    +

    这些方法负责执行文本到音频的合成并播放音频流。不同之处在于,play 是一个阻塞函数,而 play_async 则在单独的线程中运行,允许其他操作继续进行。

    +
    参数:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 默认**: true
    • +
    • 描述***: 当设置为 “true ”时,该方法将优先考虑速度,以更快的速度生成和播放句子片段。这对延迟很重要的应用程序很有用。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 当设置为 “true ”时,快速句子片段处理适用于所有句子,而不仅仅是第一个句子。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 设置为 “true ”时,允许产生多个句子片段,而不是只有一个。
    • +
    +
    buffer_threshold_seconds (浮点数)
    +
      +
    • 默认值**: 0.0
    • +
    • +

      描述**: 指定缓冲阈值的时间(以秒为单位),它会影响音频播放的流畅性和连续性。

      +
    • +
    • +

      工作原理 在合成新句子之前,系统会检查缓冲区中剩余的音频资料是否多于 buffer_threshold_seconds指定的时间。如果是,系统就会从文本生成器中获取另一个句子,假设它能在缓冲区中剩余音频所提供的时间窗口内获取并合成这个新句子。这个过程可以让文本到语音引擎有更多的语境,从而更好地进行合成,增强用户体验。

      +
    • +
    +

    较高的值可确保有更多的预缓冲音频,减少播放过程中出现静音或间断的可能性。如果出现断句或停顿,请考虑增加该值。

    +
    minimum_sentence_length(int)
    +
      +
    • 默认10
    • +
    • 描述**: 设置将字符串视为句子进行合成的最小字符长度。这会影响文本块的处理和播放方式。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 默认值**: 10
    • +
    • 描述**: 第一个句子片段的最小字符数。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 启用后,记录合成为音频的文本块。有助于审计和调试。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 默认**: true
    • +
    • 描述**: 如果为 True,则在处理前重置生成的文本。
    • +
    +
    output_wavfile (str)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 如果设置为 “是”,则将音频保存到指定的 WAV 文件中。
    • +
    +
    on_sentence_synthesized(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成一个句子片段后调用的回调函数。
    • +
    +
    before_sentence_synthesized (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成单个句子片段之前调用的回调函数。
    • +
    +
    on_audio_chunk(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 单个音频片段准备就绪时调用的回调函数。
    • +
    +
    tokenizer (str)
    +
      +
    • 默认**: “nltk”
    • +
    • 描述**: 用于分句的标记符。目前支持 “nltk ”和 “stanza”。
    • +
    +
    tokenize_sentences (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 从输入文本中标记句子的自定义函数。如果对 nltk 和 stanza 不满意,可以提供自己的轻量级标记符。它应以字符串形式接收文本,并以字符串列表形式返回拆分后的句子。
    • +
    +
    language (str)
    +
      +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +
    context_size (int)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 用于建立句子边界检测上下文的字符数。上下文越大,检测句子边界的准确性就越高。
    • +
    +
    context_size_look_overhead (整数)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 检测句子边界时用于前瞻的额外上下文大小。
    • +
    +
    muted (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述***: 如果为 True,则禁止通过本地扬声器播放音频。当您想合成一个文件或处理音频块而不播放它们时,此功能非常有用。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 默认**: “.?!;:,\n...)]}。-”
    • +
    • 描述**: 被视为句子分隔符的字符串。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 默认值**: 15
    • +
    • 描述***: 强制产生第一个句子片段的字数。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/zh/contributing/index.html b/it/zh/contributing/index.html new file mode 100755 index 0000000..bdf5354 --- /dev/null +++ b/it/zh/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    向 RealtimeTTS 投稿

    +

    我们欢迎您为 RealtimeTTS 投稿!您可以通过以下方式为 RealtimeTTS 投稿:

    +
      +
    1. +

      报告错误: 如果您发现了错误,请在我们的 GitHub 存储库 上打开一个问题。

      +
    2. +
    3. +

      提出改进建议: 有关于新功能或改进的想法吗?我们很乐意倾听!打开问题,提出改进建议。

      +
    4. +
    5. +

      代码贡献: 想要添加新功能或修复错误?太好了!请按照以下步骤操作:

      +
    6. +
    7. 分叉版本库
    8. +
    9. 为您的功能创建一个新分支
    10. +
    11. 进行更改
    12. +
    13. +

      提交一个拉取请求,清楚地描述您的更改

      +
    14. +
    15. +

      文档: 通过修正错别字、添加示例或澄清易混淆的部分来帮助我们改进文档。

      +
    16. +
    17. +

      添加新引擎: 如果您想添加对新 TTS 引擎的支持,请先打开一个问题来讨论实现方法。

      +
    18. +
    +

    感谢您帮助改进 RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/zh/faq/index.html b/it/zh/faq/index.html new file mode 100755 index 0000000..8beee01 --- /dev/null +++ b/it/zh/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    常见问题

    +

    有关 RealtimeTTS 常见问题的解答,请参阅我们的 GitHub 上的常见问题页面

    +

    该页面涵盖各种主题,包括

    +
      +
    • 不同 TTS 引擎的使用
    • +
    • 处理多语言文本
    • +
    • 性能优化
    • +
    • 常见问题的故障排除
    • +
    +

    更多详细信息,请访问以上链接。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/zh/index.html b/it/zh/index.html new file mode 100755 index 0000000..c9ac696 --- /dev/null +++ b/it/zh/index.html @@ -0,0 +1,1937 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    易于使用、低延迟、适用于实时应用的文本到语音库

    +

    项目简介

    +

    RealtimeTTS 是专为实时应用设计的最先进的文本转语音(TTS)库。它能将文本流快速转换为高质量的听觉输出,并将延迟降到最低。

    +

    关键功能

    +
      +
    • 低延迟**:文本到语音的转换几乎瞬时完成,与 LLM 输出兼容
    • +
    • 高质量音频**:生成清晰自然的语音
    • +
    • 支持多种 TTS 引擎**:支持 OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS 和 System TTS
    • +
    • 多种语言**
    • +
    • 稳定可靠**:通过后备机制确保持续运行,在出现中断时切换到替代引擎,保证性能和可靠性的一致性
    • +
    +

    有关安装说明、使用示例和 API 参考,请使用侧边栏浏览文档。

    +

    通过DeepL.com(免费版)翻译

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/zh/installation/index.html b/it/zh/installation/index.html new file mode 100755 index 0000000..4120583 --- /dev/null +++ b/it/zh/installation/index.html @@ -0,0 +1,2274 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    中文

    + +
    +

    注意: 不再推荐使用 pip install realtimetts 进行基本安装,而应使用 pip install realtimetts[all]

    +
    +

    RealtimeTTS 库为您的用例提供了各种依赖项的安装选项。以下是根据需要安装 RealtimeTTS 的不同方法:

    +

    完整安装

    +

    安装支持所有 TTS 引擎的 RealtimeTTS:

    +
    pip install -U realtimetts[all]
    +
    +

    定制安装

    +

    RealtimeTTS 允许使用最少的库安装进行自定义安装。以下是可用选项: +- 全部: 完全安装所有支持的引擎。 +- *系统: 包括特定系统的 TTS 功能(如 pyttsx3)。 +- azure: 添加 Azure 认知服务语音支持。 +- elevenlabs: 包括与 ElevenLabs API 的集成。 +- openai: 用于 OpenAI 语音服务。 +- gtts: 支持谷歌文本到语音。 +- coqui: 安装 Coqui TTS 引擎。 +- minimal: 只安装基本要求,不安装引擎(只有当你想开发自己的引擎时才需要)。

    +

    如果您只想为本地神经元 Coqui TTS 安装 RealtimeTTS,则应使用

    +
    pip install realtimetts[coqui]
    +
    +

    例如,如果您想安装只支持 Azure 认知服务语音、ElevenLabs 和 OpenAI 的 RealtimeTTS:

    +
    pip install realtimetts[azure,elevenlabs,openai].
    +
    +

    虚拟环境安装

    +

    如果想在虚拟环境中进行完整安装,请按照以下步骤操作:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    有关 CUDA 安装 的更多信息。

    +

    引擎要求

    +

    RealtimeTTS 支持的不同引擎有其独特的要求。请根据所选引擎确保满足这些要求。

    +

    系统引擎

    +

    系统引擎 "开箱即用,具有系统内置的 TTS 功能。无需额外设置。

    +

    GTTS 引擎

    +

    GTTSEngine "开箱即用,使用谷歌翻译的文本到语音 API。无需额外设置。

    +

    OpenAIEngine

    +

    要使用 OpenAIEngine: +- 设置环境变量 OPENAI_API_KEY +- 安装 ffmpeg(参见 CUDA 安装 第 3 点)

    +

    AzureEngine

    +

    要使用 “AzureEngine”,你需要 +- Microsoft Azure 文本到语音 API 密钥(通过 AzureEngine 构造函数参数 “speech_key ”或环境变量 AZURE_SPEECH_KEY 提供) +- Microsoft Azure 服务区域。

    +

    在初始化 AzureEngine 时,确保这些凭据可用并配置正确。

    +

    ElevenlabsEngine

    +

    使用 ElevenlabsEngine 时需要 +- Elevenlabs API 密钥(通过 ElevenlabsEngine 构造函数参数 “api_key ”或环境变量 ELEVENLABS_API_KEY 提供) +- 系统中已安装 mpv(用于流式传输 mpeg 音频,Elevenlabs 仅提供 mpeg)。

    +

    🔹 安装 mpv: + - macOS**: + brew install mpv

    +
      +
    • Linux和Windows: 请访问 mpv.io 获取安装说明。
    • +
    +

    CoquiEngine

    +

    通过语音克隆提供高质量的本地神经 TTS。

    +

    首先下载一个神经 TTS 模型。在大多数情况下,使用 GPU 合成的实时速度足够快。需要大约 4-5GB VRAM。

    +
      +
    • 要克隆语音,请将包含源语音的波形文件的文件名作为 “语音 ”参数提交给 CoquiEngine 构造函数
    • +
    • 语音克隆最好使用 22050 Hz 单声道 16 位 WAV 文件,其中包含一个短(约 5-30 秒)样本
    • +
    +

    在大多数系统上,需要 GPU 的支持才能以足够快的速度实时运行,否则会出现卡顿现象。

    +

    CUDA 安装

    +

    这些步骤适用于那些需要更好性能并且拥有兼容的NVIDIA GPU的人。

    +
    +

    注意要检查您的NVIDIA GPU是否支持CUDA,请访问官方CUDA GPU列表

    +
    +

    要使用支持CUDA的torch,请按照以下步骤操作:

    +
    +

    注意较新的 PyTorch 安装 可能(未经验证)不再需要安装 Toolkit(可能也不需要安装 cuDNN)。

    +
    +
      +
    1. +

      安装 NVIDIA CUDA Toolkit: + 例如,要安装 Toolkit 12.X,请

      +
        +
      • 访问 NVIDIA CUDA 下载
      • +
      • 选择你的操作系统、系统架构和操作系统版本。
      • +
      • 下载并安装软件。
      • +
      +

      或者要安装 Toolkit 11.8,请 +- 访问 NVIDIA CUDA Toolkit Archive。 +- 选择您的操作系统、系统架构和操作系统版本。 +- 下载并安装软件。

      +
    2. +
    3. +

      安装 NVIDIA cuDNN

      +

      例如,要为CUDA 11.x安装cuDNN 8.7.0,请 +- 访问NVIDIA cuDNN归档。 +- 点击“下载 cuDNN v8.7.0(2022年11月28日),适用于 CUDA 11.x”。 +- 下载并安装软件。

      +
    4. +
    5. +

      安装 ffmpeg

      +

      您可以从 ffmpeg 网站 下载适用于您操作系统的安装程序。

      +

      或者使用包管理器:

      +
        +
      • +

        在 Ubuntu 或 Debian 上: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        在 Arch Linux 上: + sudo pacman -S ffmpeg

        +
      • +
      • +

        在使用 Homebrew 的 MacOS 上 (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        在Windows上使用Chocolatey (https://chocolatey.org/): + ``` + choco install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **在Windows上使用Scoop** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```plaintext
    +        scoop install ffmpeg
    +        ```
    +
    +4. **安装带有CUDA支持的PyTorch**:
    +
    +    要升级您的PyTorch安装以启用CUDA的GPU支持,请根据您的具体CUDA版本遵循以下说明。 如果您希望通过CUDA功能提升RealtimeSTT的性能,这将非常有用。
    +
    +    - **对于CUDA 11.8:**
    +
    +        要更新 PyTorch 和 Torchaudio 以支持 CUDA 11.8,请使用以下命令:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        文本待翻译:```
    +
    +- **对于CUDA 12.X:**
    +
    +
    +    要更新 PyTorch 和 Torchaudio 以支持 CUDA 12.X,请执行以下操作:
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +文本待翻译:

    +
    将 `2.3.1` 替换为适合您的系统和需求的 PyTorch 版本。
    +
    +
      +
    1. 修复以解决兼容性问题: + 如果你遇到库兼容性问题,尝试将这些库设置为固定版本:
    2. +
    +

    文本翻译:```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/it/zh/usage/index.html b/it/zh/usage/index.html new file mode 100755 index 0000000..cf1aeb7 --- /dev/null +++ b/it/zh/usage/index.html @@ -0,0 +1,2149 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Vai al contenuto + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    用法

    +

    快速开始

    +

    这是一个基本的使用示例:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # 替换为你的TTS引擎 +流 = 文本转语音流(engine) +stream.feed("你好,世界!") 你今天怎么样? +stream.play_async()

    +

    供稿文本

    +

    你可以输入单个字符串:

    +
    stream.feed("你好,这是一句话。")
    +
    +

    或者你可以为实时流媒体提供生成器和字符迭代器:

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```聊天完成。创建(
    +        模型="gpt-3.5-turbo",
    +        消息=[{"角色": "用户", "内容": prompt}],
    +        流式=True
    +    ):
    +        如果 (text_chunk := chunk["choices"]上下文:[0]  
    +文本翻译:[0]["德尔塔"].get("content")) 不是 None:
    +            生成文本块
    +
    +文本流 = 写入("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +```python
    +char_iterator = iter("逐字符流式传输。")
    +stream.feed(char_iterator)
    +
    +

    播放

    +

    异步地:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同步:

    +
    stream.play()
    +
    +

    测试库

    +

    测试子目录包含一组脚本,帮助您评估和理解RealtimeTTS库的功能。

    +

    请注意,大多数测试仍然依赖于“旧”的OpenAI API(<1.0.0)。 在 openai_1.0_test.py 中演示了新 OpenAI API 的用法。

    +
      +
    • +

      simple_test.py

      +
        +
      • 描述:一个“你好,世界”风格的演示,展示了该库的最简单用法。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 描述:一个全面的演示,展示了该库提供的大多数功能。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 描述:本地coqui TTS引擎的测试。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述:实时翻译成六种不同的语言。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 唤醒词激活并通过语音界面访问OpenAI API。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依赖项: 运行 pip install openai keyboard realtimestt
      • +
      • 描述: 在开始AI对话之前选择TTS引擎和声音。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 一个20行代码的基本对话机器人。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 如何将库与大型语言模型集成的简单演示 (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 展示回调并让您在实际应用环境中检查延迟时间。
      • +
      +
    • +
    +

    暂停、继续和停止

    +

    暂停音频流:

    +
    stream.pause()
    +
    +

    恢复暂停的直播:

    +
    stream.resume()
    +
    +

    立即停止直播:

    +
    stream.stop()
    +
    +

    需求说明

    +
      +
    • Python 版本
    • +
    • 要求:Python >= 3.9,< 3.13
    • +
    • +

      原因: 该库依赖于来自coqui的GitHub库“TTS”,该库需要在此范围内的Python版本。

      +
    • +
    • +

      PyAudio:用于创建输出音频流

      +
    • +
    • +

      stream2sentence:将输入的文本流拆分成句子

      +
    • +
    • +

      pyttsx3:系统文本转语音引擎

      +
    • +
    • +

      pydub:用于转换音频块格式

      +
    • +
    • +

      azure-cognitiveservices-speech:Azure 语音合成引擎

      +
    • +
    • +

      elevenlabs:Elevenlabs 文字转语音转换引擎

      +
    • +
    • +

      coqui-TTS:Coqui的XTTS文本转语音库,用于高质量本地神经TTS

      +
    • +
    +

    Idiap研究所致敬,感谢他们维护了coqui tts的一个分支

    +
      +
    • +

      openai:与OpenAI的TTS API互动

      +
    • +
    • +

      gtts:谷歌翻译文本转语音转换

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/api/index.html b/ja/api/index.html new file mode 100755 index 0000000..cf8ba8b --- /dev/null +++ b/ja/api/index.html @@ -0,0 +1,2814 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    日本語

    + +

    設定

    +

    TextToAudioStreamの初期化パラメータ

    +

    TextToAudioStreamクラスを初期化する際、その動作をカスタマイズするための様々なオプションがあります。利用可能なパラメータは以下の通りです:

    +

    engine (BaseEngine)

    +
      +
    • : BaseEngine
    • +
    • 必須: はい
    • +
    • 説明: テキストから音声への合成を担当する基盤エンジンです。音声合成を有効にするには、BaseEngineまたはそのサブクラスのインスタンスを提供する必要があります。
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが開始されたときにトリガーされるオプションのコールバック関数です。セットアップやログ記録に使用できます。
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが終了したときに実行されるオプションのコールバック関数です。クリーンアップタスクやログ記録に使用できます。
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが開始されたときに呼び出されるオプションのコールバック関数です。UIの更新やイベントログに役立ちます。
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが停止したときに呼び出されるオプションのコールバック関数です。リソースのクリーンアップや後処理タスクに最適です。
    • +
    +

    on_character (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 一文字が処理されるたびに呼び出されるオプションのコールバック関数です。
    • +
    +

    output_device_index (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: None
    • +
    • 説明: 使用する出力デバイスのインデックスを指定します。Noneの場合はデフォルトデバイスを使用します。
    • +
    +

    tokenizer (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: nltk
    • +
    • 説明: 文分割に使用するトークナイザー(現在は"nltk"と"stanza"がサポートされています)。
    • +
    +

    language (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: en
    • +
    • 説明: 文分割に使用する言語。
    • +
    +

    muted (bool)

    +
      +
    • : 真偽値
    • +
    • 必須: いいえ
    • +
    • デフォルト値: False
    • +
    • 説明: グローバルなミュートパラメータ。Trueの場合、pyAudioストリームは開かれません。ローカルスピーカーを介した音声再生を無効にし(ファイルへの合成や音声チャンクの処理を行う場合)、playパラメータのミュート設定を上書きします。
    • +
    +

    level (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: logging.WARNING
    • +
    • 説明: 内部ロガーのログレベルを設定します。Pythonの組み込みloggingモジュールの任意の整数定数を使用できます。
    • +
    +

    使用例:

    +
    engine = YourEngine()  # あなたのエンジンで置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +```python
    +engine = YourEngine()  # あなたのエンジンに置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    メソッド

    +

    playplay_async

    +

    これらのメソッドはテキストから音声への合成と音声ストリームの再生を担当します。playはブロッキング関数である一方、play_asyncは別のスレッドで実行され、他の操作を続行できるという違いがあります。

    +
    パラメータ:
    +
    fast_sentence_fragment (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueに設定すると、文章の断片をより速く生成して再生することを優先します。レイテンシーが重要なアプリケーションに有用です。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、最初の文だけでなく、すべての文に対して高速な文章断片処理を適用します。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、単一の文章断片ではなく、複数の文章断片を生成することができます。
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • デフォルト値: 0.0
    • +
    • +

      説明: 音声再生の滑らかさと連続性に影響を与えるバッファリングのしきい値を秒単位で指定します。

      +
    • +
    • +

      動作原理: 新しい文を合成する前に、システムはバッファにbuffer_threshold_secondsで指定された時間以上の音声材料が残っているかチェックします。残っている場合、テキストジェネレータから別の文を取得します。これは、バッファに残っている音声の時間枠内で新しい文を取得して合成できると仮定しています。このプロセスにより、テキスト音声変換エンジンがより良い合成のためのコンテキストを持つことができ、ユーザー体験を向上させます。

      +
    • +
    +

    より高い値を設定すると、より多くの音声がプリバッファされ、再生中の無音や隙間が発生する可能性が減少します。途切れや一時停止が発生する場合は、この値を増やすことを検討してください。

    +
    minimum_sentence_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 合成する文として扱う文字列の最小文字数を設定します。これはテキストチャンクの処理と再生方法に影響します。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 最初の文章断片を生成する前に必要な最小文字数です。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: 有効にすると、音声に合成されるテキストチャンクをログに記録します。監査やデバッグに役立ちます。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueの場合、処理前に生成されたテキストをリセットします。
    • +
    +
    output_wavfile (str)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 設定すると、指定されたWAVファイルに音声を保存します。
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成された後に呼び出されるコールバック関数です。
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成される前に呼び出されるコールバック関数です。
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の音声チャンクが準備できたときに呼び出されるコールバック関数です。
    • +
    +
    tokenizer (str)
    +
      +
    • デフォルト値: "nltk"
    • +
    • 説明: 文分割に使用するトークナイザーです。現在は"nltk"と"stanza"をサポートしています。
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 入力テキストから文を分割するカスタム関数です。nltkやstanzaに満足できない場合、独自の軽量トークナイザーを提供できます。テキストを文字列として受け取り、分割された文を文字列のリストとして返す必要があります。
    • +
    +
    language (str)
    +
      +
    • デフォルト値: "en"
    • +
    • 説明: 文分割に使用する言語です。
    • +
    +
    context_size (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界検出のために使用される文字数です。より大きなコンテキストは文境界の検出精度を向上させます。
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界を検出する際の先読みのための追加のコンテキストサイズです。
    • +
    +
    muted (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueの場合、ローカルスピーカーを介した音声再生を無効にします。ファイルに合成したり、音声チャンクを再生せずに処理したりする場合に有用です。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • デフォルト値: ".?!;:,\n…)]}。-"
    • +
    • 説明: 文の区切り文字として扱われる文字の文字列です。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • デフォルト値: 15
    • +
    • 説明: 最初の文章断片を生成する必要がある単語数です。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ar/api/index.html b/ja/ar/api/index.html new file mode 100755 index 0000000..63a6bdf --- /dev/null +++ b/ja/ar/api/index.html @@ -0,0 +1,2359 @@ + + + + + + + + + + + + + + + + + + + Api - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Api

    + +

    التكوين

    +

    معلمات التهيئة لـ TextToAudioStream

    +

    عند تهيئة فئة TextToAudioStream، لديك خيارات متعددة لتخصيص سلوكها. إليك المعلمات المتاحة:

    +

    engine (BaseEngine)

    +
      +
    • النوع: BaseEngine
    • +
    • مطلوب: نعم المحرك الأساسي المسؤول عن تحويل النص إلى صوت. يجب عليك تقديم نسخة من BaseEngine أو أحد فروعها لتمكين توليف الصوت.
    • +
    +

    on_text_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق النص. استخدمه لأي إعداد أو تسجيل قد تحتاجه.
    • +
    +

    on_text_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم تفعيل هذه الدالة الراجعة الاختيارية عند انتهاء تدفق النص. يمكنك استخدام هذا لمهام التنظيف أو التسجيل.
    • +
    +

    on_audio_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق الصوت. مفيد لتحديثات واجهة المستخدم أو تسجيل الأحداث.
    • +
    +

    on_audio_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا تُستدعى هذه الدالة الاختيارية عند توقف تدفق الصوت. مثالي لتنظيف الموارد أو مهام المعالجة اللاحقة.
    • +
    +

    on_character (callable)

    +

    السياق: - النوع:
    +النص للترجمة: - النوع: دالة قابلة للاستدعاء +- مطلوب: لا تُستدعى هذه الدالة الاختيارية عند معالجة حرف واحد.

    +

    output_device_index (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا يحدد فهرس جهاز الإخراج الذي سيتم استخدامه. لا أحد يستخدم الجهاز الافتراضي.
    • +
    +

    tokenizer (string)

    +
      +
    • النوع: سلسلة
    • +
    • مطلوب: لا
    • +
    • افتراضي: nltk
    • +
    • الوصف: أداة تقسيم الجمل (currently "nltk" and "stanza" are supported).
    • +
    +

    language (سلسلة نصية)

    +
      +
    • النوع: سلسلة نصية
    • +
    • مطلوب: لا اللغة التي يجب استخدامها لتقسيم الجمل.
    • +
    +

    muted (bool)

    +
      +
    • النوع: Bool
    • +
    • مطلوب: لا
    • +
    • القيمة الافتراضية: False
    • +
    • الوصف: المعلمة العالمية الصامتة. إذا كان صحيحًا، فلن يتم فتح أي تدفق pyAudio. يعطل تشغيل الصوت عبر مكبرات الصوت المحلية (في حال كنت تريد التوليف إلى ملف أو معالجة أجزاء الصوت) ويتجاوز إعدادات كتم الصوت في معلمات التشغيل.
    • +
    +

    level (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا
    • +
    • افتراضي: logging.WARNING
    • +
    • الوصف: يحدد مستوى التسجيل للمدون الداخلي. يمكن أن يكون هذا أي ثابت صحيح من وحدة logging المدمجة في بايثون.
    • +
    +

    النص المراد ترجمته: #### مثال على الاستخدام:

    +
    engine = YourEngine()  # استبدل بمحركك
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    الطرق

    +

    play و play_async

    +

    هذه الطرق مسؤولة عن تنفيذ تحويل النص إلى صوت وتشغيل تدفق الصوت. الفرق هو أن play هي دالة حظر، بينما play_async تعمل في خيط منفصل، مما يسمح للعمليات الأخرى بالاستمرار.

    +

    السياق: ##### المعايير:
    +النص المراد ترجمته: ##### المعايير:

    +
    fast_sentence_fragment (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: عند تعيينه على True، ستعطي الطريقة الأولوية للسرعة، مما يؤدي إلى إنشاء وتشغيل أجزاء الجمل بشكل أسرع. هذا مفيد للتطبيقات التي تكون فيها الكمون مهمًا.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند تعيينه إلى True، يتم تطبيق معالجة أجزاء الجمل السريعة على جميع الجمل، وليس فقط الجملة الأولى.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • افتراضي: خطأ
    • +
    • الوصف: عند تعيينه على True، يسمح بإنتاج أجزاء متعددة من الجمل بدلاً من جزء واحد فقط.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • الافتراضي: 0.0
    • +
    • +

      الوصف: يحدد الوقت بالثواني لعتبة التخزين المؤقت، مما يؤثر على سلاسة واستمرارية تشغيل الصوت.

      +
    • +
    • +

      كيف يعمل: قبل تركيب جملة جديدة، يتحقق النظام مما إذا كان هناك المزيد من المواد الصوتية المتبقية في المخزن المؤقت أكثر من الوقت المحدد بواسطة buffer_threshold_seconds. إذا كان الأمر كذلك، فإنه يسترجع جملة أخرى من مولد النصوص، على افتراض أنه يمكنه جلب وتوليف هذه الجملة الجديدة ضمن الإطار الزمني المتاح من الصوت المتبقي في الذاكرة المؤقتة. تسمح هذه العملية لمحرك تحويل النص إلى كلام بالحصول على مزيد من السياق لتحسين التركيب، مما يعزز تجربة المستخدم.

      +
    • +
    +

    قيمة أعلى تضمن وجود المزيد من الصوت المخزن مسبقًا، مما يقلل من احتمال حدوث صمت أو فجوات أثناء التشغيل. إذا كنت تواجه انقطاعات أو توقفات، فكر في زيادة هذه القيمة.

    +
    minimum_sentence_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: يحدد الحد الأدنى لطول الأحرف لاعتبار سلسلة كنص يجب تصنيعه. هذا يؤثر على كيفية معالجة وتشغيل أجزاء النص.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: الحد الأدنى لعدد الأحرف المطلوبة للجزء الأول من الجملة قبل التوقف.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند التفعيل، يسجل أجزاء النص كما يتم تحويلها إلى صوت. مفيد للتدقيق وإصلاح الأخطاء.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: إذا كان صحيحًا، أعد تعيين النص المُولد قبل المعالجة.
    • +
    +
    output_wavfile (str)
    +
      +
    • الافتراضي: None
    • +
    • الوصف: إذا تم تعيينه، احفظ الصوت في ملف WAV المحدد.
    • +
    +
    on_sentence_synthesized (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة رد نداء تُستدعى بعد أن يتم تركيب جزء جملة واحد.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: دالة رد نداء تُستدعى قبل أن يتم تركيب جزء جملة واحد.
    • +
    +
    on_audio_chunk (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة الاستدعاء التي تُستدعى عندما يكون جزء الصوت جاهزًا.
    • +
    +
    tokenizer (str)
    +
      +
    • الافتراضي: "nltk"
    • +
    • الوصف: المحلل اللغوي المستخدم لتقسيم الجمل. يدعم حاليًا "nltk" و "stanza".
    • +
    +
    tokenize_sentences (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء +السياق: - الوصف:
      +النص للترجمة: - الوصف: دالة مخصصة تقوم بتقسيم الجمل من النص المدخل. يمكنك توفير محلل لغوي خفيف الوزن خاص بك إذا لم تكن راضيًا عن nltk وstanza. يجب أن يأخذ النص كسلسلة ويعيد الجمل المقسمة كقائمة من السلاسل.
    • +
    +
    language (str)
    +
      +
    • الإعداد الافتراضي: "en"
    • +
    • الوصف: اللغة المستخدمة لتقسيم الجمل.
    • +
    +
    context_size (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: عدد الأحرف المستخدمة لتحديد السياق لاكتشاف حدود الجمل. سياق أكبر يحسن دقة اكتشاف حدود الجمل.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: حجم سياق إضافي للنظر للأمام عند اكتشاف حدود الجمل.
    • +
    +
    muted (bool)
    +
      +
    • الإعداد الافتراضي: خطأ
    • +
    • الوصف: إذا كان صحيحًا، يتم تعطيل تشغيل الصوت عبر مكبرات الصوت المحلية. مفيد عندما تريد التوليف إلى ملف أو معالجة مقاطع الصوت دون تشغيلها.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • الإعداد الافتراضي: ".?!;:,\n…)]}。-" سلسلة من الأحرف التي تُعتبر محددات للجمل.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • الافتراضي: 15
    • +
    • الوصف: عدد الكلمات التي يجب بعدها أن يتم تقديم الجزء الأول من الجملة.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ar/contributing/index.html b/ja/ar/contributing/index.html new file mode 100755 index 0000000..b86d750 --- /dev/null +++ b/ja/ar/contributing/index.html @@ -0,0 +1,1853 @@ + + + + + + + + + + + + + + + + + + + المساهمة في RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    المساهمة في RealtimeTTS

    +

    نرحب بالمساهمات في RealtimeTTS! إليك بعض الطرق التي يمكنك المساهمة بها:

    +
      +
    1. +

      الإبلاغ عن الأخطاء: إذا وجدت خطأً، يرجى فتح مشكلة على مستودع GitHub الخاص بنا.

      +
    2. +
    3. +

      اقتراح التحسينات: هل لديك أفكار لميزات جديدة أو تحسينات؟ نود أن نسمعها! افتح قضية لاقتراح تحسينات.

      +
    4. +
    5. +

      مساهمات البرمجة: هل تريد إضافة ميزة جديدة أو إصلاح خطأ؟ رائع! يرجى اتباع هذه الخطوات:

      +
    6. +
    7. قم بعمل Fork للمستودع
    8. +
    9. أنشئ فرعًا جديدًا لميزتك
    10. +
    11. أجرِ التغييرات الخاصة بك
    12. +
    13. +

      قدّم طلب سحب مع وصف واضح للتغييرات التي أجريتها

      +
    14. +
    15. +

      التوثيق: ساعدنا في تحسين توثيقنا من خلال تصحيح الأخطاء المطبعية، وإضافة أمثلة، أو توضيح الأقسام المربكة.

      +
    16. +
    17. +

      إضافة محركات جديدة: إذا كنت ترغب في إضافة دعم لمحرك TTS جديد، يرجى فتح قضية أولاً لمناقشة التنفيذ.

      +
    18. +
    +

    شكراً لمساعدتك في تحسين RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ar/faq/index.html b/ja/ar/faq/index.html new file mode 100755 index 0000000..3bb44a7 --- /dev/null +++ b/ja/ar/faq/index.html @@ -0,0 +1,1837 @@ + + + + + + + + + + + + + + + + + + + الأسئلة المتكررة - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    الأسئلة المتكررة

    +

    للحصول على إجابات للأسئلة الشائعة حول RealtimeTTS، يرجى الرجوع إلى صفحة الأسئلة الشائعة على GitHub.

    +

    تغطي هذه الصفحة مواضيع متنوعة بما في ذلك:

    +
      +
    • استخدام محركات تحويل النص إلى كلام المختلفة
    • +
    • التعامل مع النصوص متعددة اللغات
    • +
    • تحسين الأداء
    • +
    • استكشاف المشكلات الشائعة وإصلاحها
    • +
    +

    لمزيد من المعلومات التفصيلية، يرجى زيارة الرابط أعلاه.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ar/index.html b/ja/ar/index.html new file mode 100755 index 0000000..e44a70c --- /dev/null +++ b/ja/ar/index.html @@ -0,0 +1,1867 @@ + + + + + + + + + + + + + + + + + + + RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    مكتبة تحويل النص إلى كلام سهلة الاستخدام ومنخفضة الكمون للتطبيقات في الوقت الحقيقي

    +

    عن المشروع

    +

    RealtimeTTS هي مكتبة متطورة لتحويل النص إلى كلام (TTS) مصممة للتطبيقات في الوقت الفعلي. تتميز بقدرتها على تحويل تدفقات النصوص بسرعة إلى مخرجات صوتية عالية الجودة مع الحد الأدنى من التأخير.

    +

    الميزات الرئيسية

    +
      +
    • زمن استجابة منخفض: تحويل النص إلى كلام شبه فوري، متوافق مع مخرجات نماذج اللغة الكبيرة
    • +
    • صوت عالي الجودة: يولد كلامًا واضحًا وطبيعيًا
    • +
    • دعم محركات تحويل النص إلى كلام المتعددة: يدعم OpenAI TTS، Elevenlabs، Azure Speech Services، Coqui TTS، gTTS وSystem TTS
    • +
    • متعدد اللغات
    • +
    • قوي وموثوق: يضمن التشغيل المستمر من خلال آلية احتياطية، ويتحول إلى محركات بديلة في حالة حدوث انقطاعات لضمان أداء موحد وموثوق
    • +
    +

    للحصول على تعليمات التثبيت، وأمثلة الاستخدام، ومرجع واجهة برمجة التطبيقات، يرجى التنقل عبر الوثائق باستخدام الشريط الجانبي.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ar/installation/index.html b/ja/ar/installation/index.html new file mode 100755 index 0000000..35186cf --- /dev/null +++ b/ja/ar/installation/index.html @@ -0,0 +1,2094 @@ + + + + + + + + + + + + + + + + + + + Installation - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Installation

    + +
    +

    ملاحظة: التثبيت الأساسي باستخدام pip install realtimetts لم يعد موصى به، استخدم pip install realtimetts[all] بدلاً من ذلك.

    +
    +

    توفر مكتبة RealtimeTTS خيارات تثبيت لمختلف التبعيات لحالتك الاستخدامية. إليك الطرق المختلفة التي يمكنك من خلالها تثبيت RealtimeTTS حسب احتياجاتك:

    +

    التثبيت الكامل

    +

    لتثبيت RealtimeTTS مع دعم لجميع محركات تحويل النص إلى كلام:

    +
    pip install -U realtimetts[all]
    +
    +

    التثبيت المخصص

    +

    يسمح RealtimeTTS بالتثبيت المخصص مع الحد الأدنى من تثبيت المكتبات. إليك الخيارات المتاحة: +- الكل: التثبيت الكامل مع دعم كل المحركات. +- النظام: يشمل قدرات تحويل النص إلى كلام الخاصة بالنظام (e.g., pyttsx3). +- azure: يضيف دعم خدمات Azure Cognitive Services Speech. +- elevenlabs: يتضمن التكامل مع واجهة برمجة تطبيقات ElevenLabs. +- openai: لخدمات الصوت من OpenAI. +- gtts: دعم Google Text-to-Speech. +- coqui: يقوم بتثبيت محرك Coqui TTS. +- minimal: يقوم بتثبيت المتطلبات الأساسية فقط بدون محرك (only needed if you want to develop an own engine)

    +

    قل أنك تريد تثبيت RealtimeTTS للاستخدام المحلي فقط مع Coqui TTS العصبي، فعليك استخدام:

    +
    pip install realtimetts[coqui]
    +
    +

    على سبيل المثال، إذا كنت ترغب في تثبيت RealtimeTTS مع دعم Azure Cognitive Services Speech و ElevenLabs و OpenAI فقط:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    تثبيت البيئة الافتراضية

    +

    بالنسبة لأولئك الذين يرغبون في إجراء تثبيت كامل داخل بيئة افتراضية، اتبعوا هذه الخطوات:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    مزيد من المعلومات حول تثبيت CUDA.

    +

    متطلبات المحرك

    +

    تتطلب المحركات المختلفة المدعومة من RealtimeTTS متطلبات فريدة. تأكد من أنك تلبي هذه المتطلبات بناءً على المحرك الذي تختاره.

    +

    محرك النظام

    +

    يعمل SystemEngine مباشرة مع قدرات تحويل النص إلى كلام المدمجة في نظامك. لا حاجة لأي إعداد إضافي.

    +

    GTTSEngine

    +

    يعمل GTTSEngine بشكل مباشر باستخدام واجهة برمجة التطبيقات لتحويل النص إلى كلام من Google Translate. لا حاجة لأي إعداد إضافي.

    +

    OpenAIEngine

    +

    لاستخدام OpenAIEngine: +- تعيين متغير البيئة OPENAI_API_KEY +- تثبيت ffmpeg (انظر تثبيت CUDA النقطة 3)

    +

    AzureEngine

    +

    لاستخدام AzureEngine، ستحتاج إلى: +- مفتاح واجهة برمجة تطبيقات تحويل النص إلى كلام من Microsoft Azure (المقدم عبر معامل منشئ AzureEngine "speech_key" أو في متغير البيئة AZURE_SPEECH_KEY) +- منطقة خدمة Microsoft Azure.

    +

    تأكد من أن لديك هذه البيانات متاحة ومهيأة بشكل صحيح عند تهيئة AzureEngine.

    +

    محرك Elevenlabs

    +

    بالنسبة لـ ElevenlabsEngine، تحتاج إلى: +- مفتاح واجهة برمجة تطبيقات Elevenlabs (المقدم عبر معلمة منشئ ElevenlabsEngine "api_key" أو في متغير البيئة ELEVENLABS_API_KEY) +- تم تثبيت mpv على نظامك (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 تثبيت mpv: + - macOS: + ``` + brew install mpv

    +
    
    +  - **لينكس وويندوز**: قم بزيارة [mpv.io](https://mpv.io/) للحصول على تعليمات التثبيت.
    +
    +### CoquiEngine
    +
    +يوفر تحويل النص إلى كلام العصبي المحلي عالي الجودة مع استنساخ الصوت.
    +
    +يقوم بتحميل نموذج TTS العصبي أولاً. في معظم الحالات، سيكون سريعًا بما يكفي للتشغيل في الوقت الحقيقي باستخدام تركيب GPU. يحتاج إلى حوالي 4-5 جيجابايت من ذاكرة الوصول العشوائي للرسوميات.
    +
    +- لاستنساخ الصوت، قدم اسم ملف wav يحتوي على الصوت المصدر كمعامل "voice" إلى مُنشئ CoquiEngine
    +- يعمل استنساخ الصوت بشكل أفضل مع ملف WAV أحادي 16 بت بتردد 22050 هرتز يحتوي على عينة قصيرة (~5-30 ثانية)
    +
    +في معظم الأنظمة، ستكون هناك حاجة لدعم وحدة معالجة الرسوميات (GPU) لتشغيلها بسرعة كافية في الوقت الحقيقي، وإلا ستواجه تلعثماً.
    +
    +
    +### تثبيت CUDA
    +
    +تُوصى هذه الخطوات لمن يحتاجون إلى **أداء أفضل** ولديهم وحدة معالجة رسومات NVIDIA متوافقة.
    +
    +> **ملاحظة**: *للتحقق مما إذا كانت بطاقة NVIDIA الرسومية الخاصة بك تدعم CUDA، قم بزيارة [قائمة بطاقات CUDA الرسمية](https://developer.nvidia.com/cuda-gpus).*
    +
    +لاستخدام Torch مع الدعم عبر CUDA، يرجى اتباع الخطوات التالية:
    +
    +> **ملاحظة**: *قد لا تحتاج إصدارات PyTorch الأحدث [إلى](https://stackoverflow.com/a/77069523) (غير مؤكدة) إلى تثبيت Toolkit (وربما cuDNN) بعد الآن.*
    +
    +1. **تثبيت NVIDIA CUDA Toolkit**:
    +    على سبيل المثال، لتثبيت Toolkit 12.X، يرجى
    +    - زيارة [تنزيلات NVIDIA CUDA](https://developer.nvidia.com/cuda-downloads).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار النظام.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +    أو لتثبيت Toolkit 11.8، يرجى
    +    - زيارة [أرشيف NVIDIA CUDA Toolkit](https://developer.nvidia.com/cuda-11-8-0-download-archive).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار نظام التشغيل.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٢. **تثبيت NVIDIA cuDNN**:
    +
    +    على سبيل المثال، لتثبيت cuDNN 8.7.0 لـ CUDA 11.x يرجى
    +    - زيارة [أرشيف NVIDIA cuDNN](https://developer.nvidia.com/rdp/cudnn-archive).
    +    - انقر على "تحميل cuDNN v8.7.0 (28 نوفمبر 2022)، لـ CUDA 11.x".
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٣. **تثبيت ffmpeg**:
    +
    +    يمكنك تنزيل مثبت لنظام التشغيل الخاص بك من [موقع ffmpeg](https://ffmpeg.org/download.html).
    +
    +    أو استخدم مدير حزم:
    +
    +    - **على أوبونتو أو ديبيان**:
    +        ```
    +        sudo apt update && sudo apt install ffmpeg
    +        ```
    +
    +    - **على أرتش لينكس**:
    +        ```
    +        sudo pacman -S ffmpeg
    +        ```
    +
    +    - **على نظام MacOS باستخدام Homebrew** ([https://brew.sh/](https://brew.sh/)):
    +        ```
    +        brew install ffmpeg
    +        ```
    +
    +    - **على نظام ويندوز باستخدام Chocolatey** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **على نظام ويندوز باستخدام سكوب** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    سكووب تثبيت ffmpeg
    +
    +
    
    +٤. **تثبيت PyTorch مع دعم CUDA**:
    +
    +    لترقية تثبيت PyTorch الخاص بك لتمكين دعم GPU باستخدام CUDA، اتبع هذه التعليمات بناءً على إصدار CUDA الخاص بك. هذا مفيد إذا كنت ترغب في تحسين أداء RealtimeSTT بقدرات CUDA.
    +
    +    - **لـ CUDA 11.8:**
    +
    +        لتحديث PyTorch و Torchaudio لدعم CUDA 11.8، استخدم الأوامر التالية:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        النص للترجمة: ```
    +
    +- **لـ CUDA 12.X:**
    +
    +
    +    لتحديث PyTorch و Torchaudio لدعم CUDA 12.X، نفذ ما يلي:
    +
    +    ```
    +    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +

    النص للترجمة:

    +
    استبدل `2.3.1` بالإصدار من PyTorch الذي يتناسب مع نظامك ومتطلباتك.
    +
    +
      +
    1. إصلاح لحل مشاكل التوافق: + إذا واجهت مشاكل في توافق المكتبات، حاول ضبط هذه المكتبات على إصدارات ثابتة:
    2. +
    +

    النص للترجمة: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ar/usage/index.html b/ja/ar/usage/index.html new file mode 100755 index 0000000..2916b2e --- /dev/null +++ b/ja/ar/usage/index.html @@ -0,0 +1,2035 @@ + + + + + + + + + + + + + + + + + + + الاستخدام - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    الاستخدام

    +

    البداية السريعة

    +

    إليك مثال بسيط للاستخدام:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    نص التغذية

    +

    يمكنك إدخال سلاسل فردية:

    +
    stream.feed("مرحبًا، هذه جملة.")
    +
    +

    أو يمكنك تزويد المولدات ومكررات الشخصيات للبث المباشر:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    التشغيل

    +

    بشكل غير متزامن:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    بالتزامن:

    +
    stream.play()
    +
    +

    اختبار المكتبة

    +

    تحتوي الدليل الفرعي للاختبار على مجموعة من السكربتات لمساعدتك في تقييم وفهم قدرات مكتبة RealtimeTTS.

    +

    يرجى ملاحظة أن معظم الاختبارات لا تزال تعتمد على واجهة برمجة التطبيقات "القديمة" من OpenAI (<1.0.0). يتم توضيح استخدام واجهة برمجة التطبيقات الجديدة من OpenAI في openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • الوصف: عرض توضيحي بأسلوب "مرحبا بالعالم" لأبسط استخدامات المكتبة.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • الوصف: عرض شامل يوضح معظم الميزات التي توفرها المكتبة.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • الوصف: اختبار لمحرك تحويل النص إلى كلام المحلي coqui.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt.
      • +
      • الوصف: ترجمات فورية إلى ست لغات مختلفة.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt. +السياق: - الوصف:
        +النص للترجمة: - الوصف: تم تفعيل كلمة الاستيقاظ وواجهة المستخدم المعتمدة على الصوت لواجهة برمجة تطبيقات OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • التبعيات: شغل الأمر pip install openai keyboard realtimestt.
      • +
      • الوصف: اختر محرك تحويل النص إلى كلام والصوت قبل بدء المحادثة مع الذكاء الاصطناعي.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • المتطلبات: قم بتشغيل pip install openai realtimestt.
      • +
      • الوصف: روبوت محادثة بسيط في 20 سطر من الشيفرة.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • التبعيات: شغّل pip install openai.
      • +
      • الوصف: عرض بسيط لكيفية دمج المكتبة مع نماذج اللغة الكبيرة (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • التبعيات: شغل pip install openai. +السياق: - الوصف:
        +النص للترجمة: - الوصف: يعرض الاستدعاءات ويتيح لك التحقق من أوقات الكمون في بيئة تطبيقات العالم الحقيقي.
      • +
      +
    • +
    +

    إيقاف مؤقت، استئناف وإيقاف

    +

    أوقف بث الصوت:

    +
    stream.pause()
    +
    +

    استئناف بث متوقف:

    +
    stream.resume()
    +
    +

    أوقف البث فورًا:

    +
    stream.stop()
    +
    +

    متطلبات موضحة

    +
      +
    • إصدار بايثون:
    • +
    • المطلوب: بايثون >= 3.9, < 3.13
    • +
    • +

      السبب: المكتبة تعتمد على مكتبة GitHub "TTS" من coqui، والتي تتطلب إصدارات بايثون في هذا النطاق.

      +
    • +
    • +

      PyAudio: لإنشاء دفق صوتي خارجي

      +
    • +
    • +

      stream2sentence: لتقسيم تدفق النص الوارد إلى جمل

      +
    • +
    • +

      pyttsx3: محرك تحويل النص إلى كلام للنظام

      +
    • +
    • +

      pydub: لتحويل تنسيقات مقاطع الصوت

      +
    • +
    • +

      azure-cognitiveservices-speech: محرك تحويل النص إلى كلام من Azure

      +
    • +
    • +

      elevenlabs: محرك تحويل النص إلى كلام من Elevenlabs

      +
    • +
    • +

      coqui-TTS: مكتبة Coqui XTTS لتحويل النص إلى كلام بجودة عالية باستخدام الشبكات العصبية المحلية

      +
    • +
    +

    تحية إلى معهد أبحاث إيديا على الحفاظ على نسخة مفرعة من coqui tts.

    +
      +
    • +

      openai: للتفاعل مع واجهة برمجة التطبيقات لتحويل النص إلى كلام من OpenAI

      +
    • +
    • +

      gtts: تحويل النص إلى كلام باستخدام Google Translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/contributing/index.html b/ja/contributing/index.html new file mode 100755 index 0000000..f96c985 --- /dev/null +++ b/ja/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTSへの貢献

    +

    RealtimeTTSへの貢献を歓迎します! ここにあなたが貢献できるいくつかの方法があります:

    +
      +
    1. +

      バグの報告: バグを見つけた場合は、GitHubリポジトリにイシューを開いてください。

      +
    2. +
    3. +

      改善提案: 新機能や改善のアイデアはありますか? ぜひお聞かせください! 改善提案のために問題を開いてください。

      +
    4. +
    5. +

      コードの貢献: 新しい機能を追加したり、バグを修正したりしたいですか? すごい! これらの手順に従ってください。

      +
    6. +
    7. リポジトリをフォークする
    8. +
    9. 機能のための新しいブランチを作成する
    10. +
    11. 変更を加える
    12. +
    13. +

      変更内容を明確に説明したプルリクエストを提出してください

      +
    14. +
    15. +

      ドキュメント: タイポを修正したり、例を追加したり、わかりにくい部分を明確にすることで、私たちのドキュメントを改善する手助けをしてください。

      +
    16. +
    17. +

      新しいエンジンの追加: 新しいTTSエンジンのサポートを追加したい場合は、まず実装について議論するためにイシューを開いてください。

      +
    18. +
    +

    RealtimeTTSをより良くするために協力していただきありがとうございます!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/de/api/index.html b/ja/de/api/index.html new file mode 100755 index 0000000..4790b35 --- /dev/null +++ b/ja/de/api/index.html @@ -0,0 +1,2777 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Konfiguration

    +

    Initialisierungsparameter für TextToAudioStream

    +

    Bei der Initialisierung der TextToAudioStream-Klasse haben Sie verschiedene Möglichkeiten, deren Verhalten anzupassen. Hier sind die verfügbaren Parameter:

    +

    engine (BaseEngine)

    +
      +
    • Typ: BaseEngine
    • +
    • Erforderlich: Ja
    • +
    • Beschreibung: Die zugrunde liegende Engine, die für die Text-zu-Audio-Synthese verantwortlich ist. Sie müssen eine Instanz von BaseEngine oder deren Unterklasse bereitstellen, um die Audio-Synthese zu ermöglichen.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird ausgelöst, wenn der Textstream beginnt. Verwenden Sie sie für beliebige Setup- oder Logging-Aufgaben.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aktiviert, wenn der Textstream endet. Sie können diese für Aufräumarbeiten oder Logging verwenden.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream startet. Nützlich für UI-Aktualisierungen oder Event-Logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream stoppt. Ideal für Ressourcenbereinigung oder Nachbearbeitungsaufgaben.
    • +
    +

    on_character (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn ein einzelnes Zeichen verarbeitet wird.
    • +
    +

    output_device_index (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: None
    • +
    • Beschreibung: Gibt den zu verwendenden Ausgabegeräte-Index an. None verwendet das Standardgerät.
    • +
    +

    tokenizer (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: nltk
    • +
    • Beschreibung: Tokenizer für die Satztrennung (derzeit werden "nltk" und "stanza" unterstützt).
    • +
    +

    language (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: en
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +

    muted (bool)

    +
      +
    • Typ: Bool
    • +
    • Erforderlich: Nein
    • +
    • Standard: False
    • +
    • Beschreibung: Globaler Stummschaltungsparameter. Wenn True, wird kein pyAudio-Stream geöffnet. Deaktiviert die Audiowiedergabe über lokale Lautsprecher.
    • +
    +

    level (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: logging.WARNING
    • +
    • Beschreibung: Legt den Logging-Level für den internen Logger fest.
    • +
    +

    Beispielverwendung:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methoden

    +

    play und play_async

    +

    Diese Methoden sind für die Ausführung der Text-zu-Audio-Synthese und das Abspielen des Audio-Streams verantwortlich. Der Unterschied besteht darin, dass play eine blockierende Funktion ist, während play_async in einem separaten Thread läuft, wodurch andere Operationen fortgesetzt werden können.

    +

    Parameter:

    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn auf True gesetzt, priorisiert die Methode die Geschwindigkeit und generiert und spielt Satzfragmente schneller ab. Dies ist nützlich für Anwendungen, bei denen die Latenz wichtig ist.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, wird die schnelle Satzfragmentverarbeitung auf alle Sätze angewendet, nicht nur auf den ersten.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, ermöglicht es die Ausgabe mehrerer Satzfragmente anstelle von nur einem.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Beschreibung: Gibt die Zeit in Sekunden für den Puffer-Schwellenwert an, der die Gleichmäßigkeit und Kontinuität der Audiowiedergabe beeinflusst.

      +
    • +
    • +

      Funktionsweise: Bevor ein neuer Satz synthetisiert wird, prüft das System, ob mehr Audiomaterial im Puffer verbleibt als die durch buffer_threshold_seconds angegebene Zeit. Wenn ja, ruft es einen weiteren Satz vom Textgenerator ab, unter der Annahme, dass es diesen neuen Satz innerhalb des Zeitfensters, das durch das verbleibende Audio im Puffer bereitgestellt wird, abrufen und synthetisieren kann. Dieser Prozess ermöglicht es der Text-to-Speech-Engine, mehr Kontext für eine bessere Synthese zu haben und verbessert dadurch das Benutzererlebnis.

      +
    • +
    +

    Ein höherer Wert sorgt für mehr vorgepuffertes Audio und reduziert die Wahrscheinlichkeit von Stille oder Lücken während der Wiedergabe. Wenn Sie Unterbrechungen oder Pausen bemerken, erhöhen Sie diesen Wert.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Legt die minimale Zeichenlänge fest, ab der ein String als zu synthetisierender Satz betrachtet wird. Dies beeinflusst, wie Textabschnitte verarbeitet und abgespielt werden.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Die minimale Anzahl von Zeichen, die für das erste Satzfragment erforderlich sind, bevor es ausgegeben wird.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn aktiviert, protokolliert es die Textabschnitte während ihrer Synthese zu Audio. Hilfreich für Überprüfung und Debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn True, wird der generierte Text vor der Verarbeitung zurückgesetzt.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Beschreibung: Wenn gesetzt, wird das Audio in der angegebenen WAV-Datei gespeichert.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, nachdem ein einzelnes Satzfragment synthetisiert wurde.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, bevor ein einzelnes Satzfragment synthetisiert wird.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Callback-Funktion, die aufgerufen wird, wenn ein einzelner Audio-Chunk bereit ist.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Beschreibung: Tokenizer für die Satztrennung. Unterstützt derzeit "nltk" und "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine benutzerdefinierte Funktion, die Sätze aus dem Eingabetext tokenisiert. Sie können Ihren eigenen leichtgewichtigen Tokenizer bereitstellen, wenn Sie mit nltk und stanza unzufrieden sind. Die Funktion sollte Text als String entgegennehmen und getrennte Sätze als Liste von Strings zurückgeben.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Die Anzahl der Zeichen, die verwendet werden, um den Kontext für die Satzerkennung festzulegen. Ein größerer Kontext verbessert die Genauigkeit der Satzerkennung.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Zusätzliche Kontextgröße für den Vorausblick bei der Satzerkennung.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn True, wird die Audiowiedergabe über lokale Lautsprecher deaktiviert. Nützlich, wenn Sie in eine Datei synthetisieren oder Audio-Chunks verarbeiten möchten, ohne sie abzuspielen.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Beschreibung: Eine Zeichenkette von Zeichen, die als Satztrennzeichen betrachtet werden.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Beschreibung: Die Anzahl der Wörter, nach denen das erste Satzfragment erzwungen ausgegeben wird.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/de/contributing/index.html b/ja/de/contributing/index.html new file mode 100755 index 0000000..6d4f600 --- /dev/null +++ b/ja/de/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Beitrag zu RealtimeTTS

    +

    Wir freuen uns über Beiträge zu RealtimeTTS! Hier sind einige Möglichkeiten, wie Sie dazu beitragen können:

    +
      +
    1. +

      Berichterstattung über Fehler: Wenn Sie einen Fehler finden, öffnen Sie bitte ein Problem in unserem [GitHub-Repository] (https://github.com/KoljaB/RealtimeTTS/issues).

      +
    2. +
    3. +

      ** Verbesserungsvorschläge**: Haben Sie Ideen für neue Funktionen oder Verbesserungen? Wir würden sie gerne hören! Öffnen Sie eine Ausgabe, um Verbesserungen vorzuschlagen.

      +
    4. +
    5. +

      Code Beiträge: Möchten Sie eine neue Funktion hinzufügen oder einen Fehler beheben? Super! Bitte folgen Sie diesen Schritten:

      +
    6. +
    7. Forken Sie das Repository
    8. +
    9. Erstellen Sie einen neuen Zweig für Ihre Funktion
    10. +
    11. Nehmen Sie Ihre Änderungen vor
    12. +
    13. +

      Senden Sie eine Pull-Anfrage mit einer klaren Beschreibung Ihrer Änderungen

      +
    14. +
    15. +

      Dokumentation: Helfen Sie uns, unsere Dokumentation zu verbessern, indem Sie Tippfehler reparieren, Beispiele hinzufügen oder verwirrende Abschnitte klären.

      +
    16. +
    17. +

      ** Hinzufügen neuer Motoren**: Wenn Sie Unterstützung für eine neue TTS-Engine hinzufügen möchten, öffnen Sie bitte zuerst eine Ausgabe, um die Implementierung zu besprechen.

      +
    18. +
    +

    Vielen Dank, dass Sie dazu beigetragen haben, RealtimeTTS besser zu machen!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/de/faq/index.html b/ja/de/faq/index.html new file mode 100755 index 0000000..b0135d8 --- /dev/null +++ b/ja/de/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Häufig gestellte Fragen

    +

    Antworten auf häufig gestellte Fragen zu RealtimeTTS finden Sie auf unserer [FAQ-Seite auf GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Diese Seite behandelt verschiedene Themen, darunter:

    +
      +
    • Verwendung verschiedener TTS-Motoren
    • +
    • Umgang mit mehrsprachigem Text
    • +
    • Leistungsoptimierung
    • +
    • Fehlerbehebung bei häufigen Problemen
    • +
    +

    Für genauere Informationen besuchen Sie bitte den obigen Link.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/de/index.html b/ja/de/index.html new file mode 100755 index 0000000..b808326 --- /dev/null +++ b/ja/de/index.html @@ -0,0 +1,1864 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +
      +
    • Einfach zu verwendende Text-to-Speech-Bibliothek mit geringer Latenz für Echtzeitanwendungen*
    • +
    +

    Über das Projekt

    +

    RealtimeTTS ist eine hochmoderne Text-to-Speech-Bibliothek (TTS), die für Echtzeitanwendungen entwickelt wurde. Es zeichnet sich durch seine Fähigkeit aus, Textströme schnell in hochwertige Hörausgaben mit minimaler Latenz umzuwandeln.

    +

    Hauptmerkmale

    +
      +
    • Niedrige Latenz: nahezu sofortige Text-zu-Sprache-Konvertierung, kompatibel mit LLM-Ausgaben
    • +
    • High-Quality Audio: erzeugt klare und natürlich klingende Sprache
    • +
    • Multiple TTS Engine Support: unterstützt OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS und System TTS
    • +
    • Mehrsprachig
    • +
    • Robust und zuverlässig: sorgt für einen kontinuierlichen Betrieb durch einen Rückfallmechanismus und wechselt bei Störungen zu alternativen Motoren, die eine gleichbleibende Leistung und Zuverlässigkeit gewährleisten
    • +
    +

    Für Installationsanweisungen, Nutzungsbeispiele und API-Referenzen navigieren Sie bitte über die Seitenleiste durch die Dokumentation.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/de/installation/index.html b/ja/de/installation/index.html new file mode 100755 index 0000000..ae7854e --- /dev/null +++ b/ja/de/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Deutsch

    + +
    +

    Hinweis: Die Basisinstallation mit pip install realtimetts wird nicht mehr empfohlen. Verwenden Sie stattdessen pip install realtimetts[all].

    +
    +

    Die RealtimeTTS-Bibliothek bietet verschiedene Installationsoptionen für Abhängigkeiten je nach Anwendungsfall. Hier sind die verschiedenen Möglichkeiten, RealtimeTTS entsprechend Ihren Anforderungen zu installieren:

    +

    Vollständige Installation

    +

    Um RealtimeTTS mit Unterstützung für alle TTS-Engines zu installieren:

    +
    pip install -U realtimetts[all]
    +
    +

    Benutzerdefinierte Installation

    +

    RealtimeTTS ermöglicht eine benutzerdefinierte Installation mit minimalen Bibliotheksinstallationen. Folgende Optionen stehen zur Verfügung: +- all: Vollständige Installation mit Unterstützung aller Engines. +- system: Enthält systemspezifische TTS-Fähigkeiten (z.B. pyttsx3). +- azure: Fügt Azure Cognitive Services Speech-Unterstützung hinzu. +- elevenlabs: Enthält Integration mit der ElevenLabs API. +- openai: Für OpenAI-Sprachdienste. +- gtts: Google Text-to-Speech-Unterstützung. +- coqui: Installiert die Coqui TTS-Engine. +- minimal: Installiert nur die Basisanforderungen ohne Engine (nur erforderlich, wenn Sie eine eigene Engine entwickeln möchten)

    +

    Wenn Sie RealtimeTTS nur für die lokale neuronale Coqui TTS-Nutzung installieren möchten, verwenden Sie:

    +
    pip install realtimetts[coqui]
    +
    +

    Wenn Sie beispielsweise RealtimeTTS nur mit Azure Cognitive Services Speech, ElevenLabs und OpenAI-Unterstützung installieren möchten:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installation in virtueller Umgebung

    +

    Für diejenigen, die eine vollständige Installation in einer virtuellen Umgebung durchführen möchten, folgen Sie diesen Schritten:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Weitere Informationen zur CUDA-Installation.

    +

    Engine-Anforderungen

    +

    Verschiedene von RealtimeTTS unterstützte Engines haben spezifische Anforderungen. Stellen Sie sicher, dass Sie diese Anforderungen je nach gewählter Engine erfüllen.

    +

    SystemEngine

    +

    Die SystemEngine funktioniert von Haus aus mit den integrierten TTS-Fähigkeiten Ihres Systems. Keine zusätzliche Einrichtung erforderlich.

    +

    GTTSEngine

    +

    Die GTTSEngine funktioniert von Haus aus mit der Google Translate Text-to-Speech API. Keine zusätzliche Einrichtung erforderlich.

    +

    OpenAIEngine

    +

    Zur Verwendung der OpenAIEngine: +- Umgebungsvariable OPENAI_API_KEY setzen +- ffmpeg installieren (siehe CUDA-Installation Punkt 3)

    +

    AzureEngine

    +

    Für die Verwendung der AzureEngine benötigen Sie: +- Microsoft Azure Text-to-Speech API-Schlüssel (bereitgestellt über den AzureEngine-Konstruktorparameter "speech_key" oder in der Umgebungsvariable AZURE_SPEECH_KEY) +- Microsoft Azure Service-Region

    +

    Stellen Sie sicher, dass diese Anmeldedaten verfügbar und korrekt konfiguriert sind, wenn Sie die AzureEngine initialisieren.

    +

    ElevenlabsEngine

    +

    Für die ElevenlabsEngine benötigen Sie: +- Elevenlabs API-Schlüssel (bereitgestellt über den ElevenlabsEngine-Konstruktorparameter "api_key" oder in der Umgebungsvariable ELEVENLABS_API_KEY) +- mpv auf Ihrem System installiert (wesentlich für das Streaming von MPEG-Audio, Elevenlabs liefert nur MPEG)

    +

    🔹 Installation von mpv: + - macOS: + brew install mpv

    +
      +
    • Linux und Windows: Besuchen Sie mpv.io für Installationsanweisungen.
    • +
    +

    CoquiEngine

    +

    Bietet hochwertige, lokale, neuronale TTS mit Stimmklonen.

    +

    Lädt zuerst ein neurales TTS-Modell herunter. In den meisten Fällen ist es mit GPU-Synthese schnell genug für Echtzeit. Benötigt etwa 4-5 GB VRAM.

    +
      +
    • Um eine Stimme zu klonen, übergeben Sie den Dateinamen einer Wave-Datei, die die Quellstimme enthält, als "voice"-Parameter an den CoquiEngine-Konstruktor
    • +
    • Stimmklonen funktioniert am besten mit einer 22050 Hz Mono 16bit WAV-Datei, die eine kurze (~5-30 Sek.) Probe enthält
    • +
    +

    Auf den meisten Systemen wird GPU-Unterstützung benötigt, um schnell genug für Echtzeit zu sein, andernfalls werden Sie Stottern erleben.

    +

    CUDA-Installation

    +

    Diese Schritte werden für diejenigen empfohlen, die bessere Leistung benötigen und eine kompatible NVIDIA GPU haben.

    +
    +

    Hinweis: Um zu überprüfen, ob Ihre NVIDIA GPU CUDA unterstützt, besuchen Sie die offizielle CUDA GPUs-Liste.

    +
    +

    Um torch mit CUDA-Unterstützung zu verwenden, folgen Sie bitte diesen Schritten:

    +
    +

    Hinweis: Neuere PyTorch-Installationen könnten (unbestätigt) keine Toolkit (und möglicherweise cuDNN) Installation mehr benötigen.

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkit installieren: + Um beispielsweise Toolkit 12.X zu installieren:

      +
        +
      • Besuchen Sie NVIDIA CUDA Downloads.
      • +
      • Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version.
      • +
      • Laden Sie die Software herunter und installieren Sie sie.
      • +
      +

      oder um Toolkit 11.8 zu installieren: +- Besuchen Sie NVIDIA CUDA Toolkit Archive. +- Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version. +- Laden Sie die Software herunter und installieren Sie sie.

      +
    2. +
    3. +

      NVIDIA cuDNN installieren:

      +

      Um beispielsweise cuDNN 8.7.0 für CUDA 11.x zu installieren: +- Besuchen Sie NVIDIA cuDNN Archive. +- Klicken Sie auf "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Laden Sie die Software herunter und installieren Sie sie.

      +
    4. +
    5. +

      ffmpeg installieren:

      +

      Sie können einen Installer für Ihr Betriebssystem von der ffmpeg Website herunterladen.

      +

      Oder verwenden Sie einen Paketmanager:

      +
        +
      • +

        Unter Ubuntu oder Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Unter Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Unter MacOS mit Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Unter Windows mit Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Unter Windows mit Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      PyTorch mit CUDA-Unterstützung installieren:

      +

      Um Ihre PyTorch-Installation zu aktualisieren und GPU-Unterstützung mit CUDA zu aktivieren, folgen Sie diesen Anweisungen basierend auf Ihrer spezifischen CUDA-Version. Dies ist nützlich, wenn Sie die Leistung von RealtimeSTT mit CUDA-Fähigkeiten verbessern möchten.

      +
        +
      • +

        Für CUDA 11.8:

        +

        Um PyTorch und Torchaudio für CUDA 11.8-Unterstützung zu aktualisieren, verwenden Sie folgende Befehle:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Für CUDA 12.X:

        +

        Um PyTorch und Torchaudio für CUDA 12.X-Unterstützung zu aktualisieren, führen Sie Folgendes aus:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Ersetzen Sie 2.3.1 durch die Version von PyTorch, die Ihrem System und Ihren Anforderungen entspricht.

      +
    8. +
    9. +

      Behebung von Kompatibilitätsproblemen: + Wenn Sie auf Bibliotheks-Kompatibilitätsprobleme stoßen, versuchen Sie, diese Bibliotheken auf feste Versionen zu setzen:

      +
    10. +
    +

    `

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    `

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/de/usage/index.html b/ja/de/usage/index.html new file mode 100755 index 0000000..12691ea --- /dev/null +++ b/ja/de/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Verwendung

    +

    Schnellstart

    +

    Hier ist ein grundlegendes Beispiel:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # ersetzen Sie dies mit Ihrer TTS-Engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Text Einspeisung

    +

    Sie können einzelne Zeichenketten einspeisen:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oder Sie können Generatoren und Zeichen-Iteratoren für Echtzeit-Streaming verwenden:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Wiedergabe

    +

    Asynchron:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchron:

    +
    stream.play()
    +
    +

    Testen der Bibliothek

    +

    Das Test-Unterverzeichnis enthält eine Reihe von Skripten, die Ihnen helfen, die Fähigkeiten der RealtimeTTS-Bibliothek zu bewerten und zu verstehen.

    +

    Beachten Sie, dass die meisten Tests noch auf der "alten" OpenAI API (<1.0.0) basieren. Die Verwendung der neuen OpenAI API wird in openai_1.0_test.py demonstriert.

    +
      +
    • +

      simple_test.py

      +
        +
      • Beschreibung: Eine "Hello World"-ähnliche Demonstration der einfachsten Bibliotheksnutzung.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Beschreibung: Eine umfassende Demonstration der meisten Funktionen der Bibliothek.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Beschreibung: Test der lokalen Coqui TTS-Engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Echtzeitübersetzungen in sechs verschiedene Sprachen.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Durch Aktivierungswort gesteuerte und sprachbasierte Benutzeroberfläche für die OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai keyboard realtimestt aus.
      • +
      • Beschreibung: Wählen Sie TTS-Engine und Stimme vor Beginn der KI-Konversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Ein grundlegender Sprachbot in 20 Codezeilen.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Einfache Demonstration der Integration der Bibliothek mit Large Language Models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Zeigt die Callbacks und lässt Sie die Latenzzeiten in einer realen Anwendungsumgebung überprüfen.
      • +
      +
    • +
    +

    Pause, Fortsetzen & Stoppen

    +

    Audiostream pausieren:

    +
    stream.pause()
    +
    +

    Pausierten Stream fortsetzen:

    +
    stream.resume()
    +
    +

    Stream sofort stoppen:

    +
    stream.stop()
    +
    +

    Erläuterung der Anforderungen

    +
      +
    • Python Version:
    • +
    • Erforderlich: Python >= 3.9, < 3.13
    • +
    • +

      Grund: Die Bibliothek hängt von der GitHub-Bibliothek "TTS" von Coqui ab, die Python-Versionen in diesem Bereich erfordert.

      +
    • +
    • +

      PyAudio: zur Erstellung eines Audio-Ausgabestreams

      +
    • +
    • +

      stream2sentence: zum Aufteilen des eingehenden Textstreams in Sätze

      +
    • +
    • +

      pyttsx3: System Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      pydub: zur Konvertierung von Audio-Chunk-Formaten

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS Text-to-Speech Bibliothek für hochwertige lokale neuronale TTS

      +
    • +
    +

    Dank an das Idiap Research Institute für die Pflege eines Forks von Coqui TTS.

    +
      +
    • +

      openai: zur Interaktion mit der OpenAI TTS API

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech Konvertierung

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/en/api/index.html b/ja/en/api/index.html new file mode 100755 index 0000000..cb9afd6 --- /dev/null +++ b/ja/en/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    English

    + +

    Configuration

    +

    Initialization Parameters for TextToAudioStream

    +

    When you initialize the TextToAudioStream class, you have various options to customize its behavior. Here are the available parameters:

    +

    engine (BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Required: Yes
    • +
    • Description: The underlying engine responsible for text-to-audio synthesis. You must provide an instance of BaseEngine or its subclass to enable audio synthesis.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is triggered when the text stream begins. Use it for any setup or logging you may need.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is activated when the text stream ends. You can use this for cleanup tasks or logging.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is invoked when the audio stream starts. Useful for UI updates or event logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when the audio stream stops. Ideal for resource cleanup or post-processing tasks.
    • +
    +

    on_character (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when a single character is processed.
    • +
    +

    output_device_index (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: None
    • +
    • Description: Specifies the output device index to use. None uses the default device.
    • +
    +

    tokenizer (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: nltk
    • +
    • Description: Tokenizer to use for sentence splitting (currently "nltk" and "stanza" are supported).
    • +
    +

    language (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: en
    • +
    • Description: Language to use for sentence splitting.
    • +
    +

    muted (bool)

    +
      +
    • Type: Bool
    • +
    • Required: No
    • +
    • Default: False
    • +
    • Description: Global muted parameter. If True, no pyAudio stream will be opened. Disables audio playback via local speakers (in case you want to synthesize to file or process audio chunks) and overrides the play parameters muted setting.
    • +
    +

    level (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: logging.WARNING
    • +
    • Description: Sets the logging level for the internal logger. This can be any integer constant from Python's built-in logging module.
    • +
    +

    Example Usage:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methods

    +

    play and play_async

    +

    These methods are responsible for executing the text-to-audio synthesis and playing the audio stream. The difference is that play is a blocking function, while play_async runs in a separate thread, allowing other operations to proceed.

    +
    Parameters:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Description: When set to True, the method will prioritize speed, generating and playing sentence fragments faster. This is useful for applications where latency matters.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, applies the fast sentence fragment processing to all sentences, not just the first one.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, allows yielding multiple sentence fragments instead of just a single one.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Description: Specifies the time in seconds for the buffering threshold, which impacts the smoothness and continuity of audio playback.

      +
    • +
    • +

      How it Works: Before synthesizing a new sentence, the system checks if there is more audio material left in the buffer than the time specified by buffer_threshold_seconds. If so, it retrieves another sentence from the text generator, assuming that it can fetch and synthesize this new sentence within the time window provided by the remaining audio in the buffer. This process allows the text-to-speech engine to have more context for better synthesis, enhancing the user experience.

      +
    • +
    +

    A higher value ensures that there's more pre-buffered audio, reducing the likelihood of silence or gaps during playback. If you experience breaks or pauses, consider increasing this value.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Description: Sets the minimum character length to consider a string as a sentence to be synthesized. This affects how text chunks are processed and played.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Description: The minimum number of characters required for the first sentence fragment before yielding.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Description: When enabled, logs the text chunks as they are synthesized into audio. Helpful for auditing and debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Description: If True, reset the generated text before processing.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Description: If set, save the audio to the specified WAV file.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called after a single sentence fragment was synthesized.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called before a single sentence fragment gets synthesized.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Description: Callback function that gets called when a single audio chunk is ready.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Description: Tokenizer to use for sentence splitting. Currently supports "nltk" and "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Description: A custom function that tokenizes sentences from the input text. You can provide your own lightweight tokenizer if you are unhappy with nltk and stanza. It should take text as a string and return split sentences as a list of strings.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Description: Language to use for sentence splitting.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Description: The number of characters used to establish context for sentence boundary detection. A larger context improves the accuracy of detecting sentence boundaries.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Description: Additional context size for looking ahead when detecting sentence boundaries.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Description: If True, disables audio playback via local speakers. Useful when you want to synthesize to a file or process audio chunks without playing them.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Description: A string of characters that are considered sentence delimiters.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Description: The number of words after which the first sentence fragment is forced to be yielded.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/en/contributing/index.html b/ja/en/contributing/index.html new file mode 100755 index 0000000..045a325 --- /dev/null +++ b/ja/en/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contributing to RealtimeTTS

    +

    We welcome contributions to RealtimeTTS! Here are some ways you can contribute:

    +
      +
    1. +

      Reporting Bugs: If you find a bug, please open an issue on our GitHub repository.

      +
    2. +
    3. +

      Suggesting Enhancements: Have ideas for new features or improvements? We'd love to hear them! Open an issue to suggest enhancements.

      +
    4. +
    5. +

      Code Contributions: Want to add a new feature or fix a bug? Great! Please follow these steps:

      +
    6. +
    7. Fork the repository
    8. +
    9. Create a new branch for your feature
    10. +
    11. Make your changes
    12. +
    13. +

      Submit a pull request with a clear description of your changes

      +
    14. +
    15. +

      Documentation: Help us improve our documentation by fixing typos, adding examples, or clarifying confusing sections.

      +
    16. +
    17. +

      Adding New Engines: If you want to add support for a new TTS engine, please open an issue first to discuss the implementation.

      +
    18. +
    +

    Thank you for helping make RealtimeTTS better!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/en/faq/index.html b/ja/en/faq/index.html new file mode 100755 index 0000000..8010331 --- /dev/null +++ b/ja/en/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Frequently Asked Questions

    +

    For answers to frequently asked questions about RealtimeTTS, please refer to our FAQ page on GitHub.

    +

    This page covers various topics including:

    +
      +
    • Usage of different TTS engines
    • +
    • Handling of multilingual text
    • +
    • Performance optimization
    • +
    • Troubleshooting common issues
    • +
    +

    For more detailed information, please visit the link above.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/en/index.html b/ja/en/index.html new file mode 100755 index 0000000..8b810f0 --- /dev/null +++ b/ja/en/index.html @@ -0,0 +1,1934 @@ + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Easy to use, low-latency text-to-speech library for realtime applications

    +

    About the Project

    +

    RealtimeTTS is a state-of-the-art text-to-speech (TTS) library designed for real-time applications. It stands out in its ability to convert text streams fast into high-quality auditory output with minimal latency.

    +

    Key Features

    +
      +
    • Low Latency: almost instantaneous text-to-speech conversion, compatible with LLM outputs
    • +
    • High-Quality Audio: generates clear and natural-sounding speech
    • +
    • Multiple TTS Engine Support: supports OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS and System TTS
    • +
    • Multilingual
    • +
    • Robust and Reliable: ensures continuous operation through a fallback mechanism, switches to alternative engines in case of disruptions guaranteeing consistent performance and reliability
    • +
    +

    For installation instructions, usage examples, and API reference, please navigate through the documentation using the sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/en/installation/index.html b/ja/en/installation/index.html new file mode 100755 index 0000000..0a15b37 --- /dev/null +++ b/ja/en/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    English

    + +
    +

    Note: Basic Installation with pip install realtimetts is not recommended anymore, use pip install realtimetts[all] instead.

    +
    +

    The RealtimeTTS library provides installation options for various dependencies for your use case. Here are the different ways you can install RealtimeTTS depending on your needs:

    +

    Full Installation

    +

    To install RealtimeTTS with support for all TTS engines:

    +
    pip install -U realtimetts[all]
    +
    +

    Custom Installation

    +

    RealtimeTTS allows for custom installation with minimal library installations. Here are the options available: +- all: Full installation with every engine supported. +- system: Includes system-specific TTS capabilities (e.g., pyttsx3). +- azure: Adds Azure Cognitive Services Speech support. +- elevenlabs: Includes integration with ElevenLabs API. +- openai: For OpenAI voice services. +- gtts: Google Text-to-Speech support. +- coqui: Installs the Coqui TTS engine. +- minimal: Installs only the base requirements with no engine (only needed if you want to develop an own engine)

    +

    Say you want to install RealtimeTTS only for local neuronal Coqui TTS usage, then you should use:

    +
    pip install realtimetts[coqui]
    +
    +

    For example, if you want to install RealtimeTTS with only Azure Cognitive Services Speech, ElevenLabs, and OpenAI support:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Virtual Environment Installation

    +

    For those who want to perform a full installation within a virtual environment, follow these steps:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    More information about CUDA installation.

    +

    Engine Requirements

    +

    Different engines supported by RealtimeTTS have unique requirements. Ensure you fulfill these requirements based on the engine you choose.

    +

    SystemEngine

    +

    The SystemEngine works out of the box with your system's built-in TTS capabilities. No additional setup is needed.

    +

    GTTSEngine

    +

    The GTTSEngine works out of the box using Google Translate's text-to-speech API. No additional setup is needed.

    +

    OpenAIEngine

    +

    To use the OpenAIEngine: +- set environment variable OPENAI_API_KEY +- install ffmpeg (see CUDA installation point 3)

    +

    AzureEngine

    +

    To use the AzureEngine, you will need: +- Microsoft Azure Text-to-Speech API key (provided via AzureEngine constructor parameter "speech_key" or in the environment variable AZURE_SPEECH_KEY) +- Microsoft Azure service region.

    +

    Make sure you have these credentials available and correctly configured when initializing the AzureEngine.

    +

    ElevenlabsEngine

    +

    For the ElevenlabsEngine, you need: +- Elevenlabs API key (provided via ElevenlabsEngine constructor parameter "api_key" or in the environment variable ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 Installing mpv: + - macOS: + brew install mpv

    +
      +
    • Linux and Windows: Visit mpv.io for installation instructions.
    • +
    +

    CoquiEngine

    +

    Delivers high quality, local, neural TTS with voice-cloning.

    +

    Downloads a neural TTS model first. In most cases it be fast enough for Realtime using GPU synthesis. Needs around 4-5 GB VRAM.

    +
      +
    • to clone a voice submit the filename of a wave file containing the source voice as "voice" parameter to the CoquiEngine constructor
    • +
    • voice cloning works best with a 22050 Hz mono 16bit WAV file containing a short (~5-30 sec) sample
    • +
    +

    On most systems GPU support will be needed to run fast enough for realtime, otherwise you will experience stuttering.

    +

    CUDA installation

    +

    These steps are recommended for those who require better performance and have a compatible NVIDIA GPU.

    +
    +

    Note: to check if your NVIDIA GPU supports CUDA, visit the official CUDA GPUs list.

    +
    +

    To use a torch with support via CUDA please follow these steps:

    +
    +

    Note: newer pytorch installations may (unverified) not need Toolkit (and possibly cuDNN) installation anymore.

    +
    +
      +
    1. +

      Install NVIDIA CUDA Toolkit: + For example, to install Toolkit 12.X, please

      +
        +
      • Visit NVIDIA CUDA Downloads.
      • +
      • Select your operating system, system architecture, and os version.
      • +
      • Download and install the software.
      • +
      +

      or to install Toolkit 11.8, please +- Visit NVIDIA CUDA Toolkit Archive. +- Select your operating system, system architecture, and os version. +- Download and install the software.

      +
    2. +
    3. +

      Install NVIDIA cuDNN:

      +

      For example, to install cuDNN 8.7.0 for CUDA 11.x please +- Visit NVIDIA cuDNN Archive. +- Click on "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Download and install the software.

      +
    4. +
    5. +

      Install ffmpeg:

      +

      You can download an installer for your OS from the ffmpeg Website.

      +

      Or use a package manager:

      +
        +
      • +

        On Ubuntu or Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        On Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        On MacOS using Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        On Windows using Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        On Windows using Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Install PyTorch with CUDA support:

      +

      To upgrade your PyTorch installation to enable GPU support with CUDA, follow these instructions based on your specific CUDA version. This is useful if you wish to enhance the performance of RealtimeSTT with CUDA capabilities.

      +
        +
      • +

        For CUDA 11.8:

        +

        To update PyTorch and Torchaudio to support CUDA 11.8, use the following commands:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        For CUDA 12.X:

        +

        To update PyTorch and Torchaudio to support CUDA 12.X, execute the following:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Replace 2.3.1 with the version of PyTorch that matches your system and requirements.

      +
    8. +
    9. +

      Fix for to resolve compatibility issues: + If you run into library compatibility issues, try setting these libraries to fixed versions:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/en/usage/index.html b/ja/en/usage/index.html new file mode 100755 index 0000000..cbc41cc --- /dev/null +++ b/ja/en/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Usage

    +

    Quick Start

    +

    Here's a basic usage example:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Feed Text

    +

    You can feed individual strings:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Or you can feed generators and character iterators for real-time streaming:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Playback

    +

    Asynchronously:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchronously:

    +
    stream.play()
    +
    +

    Testing the Library

    +

    The test subdirectory contains a set of scripts to help you evaluate and understand the capabilities of the RealtimeTTS library.

    +

    Note that most of the tests still rely on the "old" OpenAI API (<1.0.0). Usage of the new OpenAI API is demonstrated in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description: A "hello world" styled demonstration of the library's simplest usage.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description: A comprehensive demonstration showcasing most of the features provided by the library.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description: Test of local coqui TTS engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Real-time translations into six different languages.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Wake word activated and voice based user interface to the OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencies: Run pip install openai keyboard realtimestt.
      • +
      • Description: Choose TTS engine and voice before starting AI conversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: A basic talkbot in 20 lines of code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Simple demonstration of how to integrate the library with large language models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Showcases the callbacks and lets you check the latency times in a real-world application environment.
      • +
      +
    • +
    +

    Pause, Resume & Stop

    +

    Pause the audio stream:

    +
    stream.pause()
    +
    +

    Resume a paused stream:

    +
    stream.resume()
    +
    +

    Stop the stream immediately:

    +
    stream.stop()
    +
    +

    Requirements Explained

    +
      +
    • Python Version:
    • +
    • Required: Python >= 3.9, < 3.13
    • +
    • +

      Reason: The library depends on the GitHub library "TTS" from coqui, which requires Python versions in this range.

      +
    • +
    • +

      PyAudio: to create an output audio stream

      +
    • +
    • +

      stream2sentence: to split the incoming text stream into sentences

      +
    • +
    • +

      pyttsx3: System text-to-speech conversion engine

      +
    • +
    • +

      pydub: to convert audio chunk formats

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure text-to-speech conversion engine

      +
    • +
    • +

      elevenlabs: Elevenlabs text-to-speech conversion engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS text-to-speech library for high-quality local neural TTS

      +
    • +
    +

    Shoutout to Idiap Research Institute for maintaining a fork of coqui tts.

    +
      +
    • +

      openai: to interact with OpenAI's TTS API

      +
    • +
    • +

      gtts: Google translate text-to-speech conversion

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/es/api/index.html b/ja/es/api/index.html new file mode 100755 index 0000000..f2fcfda --- /dev/null +++ b/ja/es/api/index.html @@ -0,0 +1,2922 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    TextToAudioStream - Documentación en Español

    +

    Configuración

    +

    Parámetros de Inicialización para TextToAudioStream

    +

    Cuando inicializa la clase TextToAudioStream, tiene varias opciones para personalizar su comportamiento. Aquí están los parámetros disponibles:

    +

    Parámetros Principales

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Requerido: Sí
    • +
    • Descripción: El motor subyacente responsable de la síntesis de texto a audio. Debe proporcionar una instancia de BaseEngine o su subclase para habilitar la síntesis de audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando comienza el flujo de texto. Utilícela para cualquier configuración o registro que pueda necesitar.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando finaliza el flujo de texto. Puede utilizarla para tareas de limpieza o registro.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se invoca cuando comienza el flujo de audio. Útil para actualizaciones de UI o registro de eventos.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se detiene el flujo de audio. Ideal para limpieza de recursos o tareas de post-procesamiento.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se procesa un solo carácter.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: None
    • +
    • Descripción: Especifica el índice del dispositivo de salida a utilizar. None usa el dispositivo predeterminado.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: nltk
    • +
    • Descripción: Tokenizador a utilizar para la división de oraciones (actualmente se admiten "nltk" y "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: en
    • +
    • Descripción: Idioma a utilizar para la división de oraciones.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Requerido: No
    • +
    • Valor predeterminado: False
    • +
    • Descripción: Parámetro global de silencio. Si es True, no se abrirá ningún flujo pyAudio. Deshabilita la reproducción de audio a través de los altavoces locales.
    • +
    +

    level (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: logging.WARNING
    • +
    • Descripción: Establece el nivel de registro para el registrador interno. Puede ser cualquier constante entera del módulo logging incorporado de Python.
    • +
    +

    Ejemplo de Uso

    +
    engine = YourEngine()  # Sustituya con su motor
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Métodos

    +

    play y play_async

    +

    Estos métodos son responsables de ejecutar la síntesis de texto a audio y reproducir el flujo de audio. La diferencia es que play es una función bloqueante, mientras que play_async se ejecuta en un hilo separado, permitiendo que otras operaciones continúen.

    +

    Parámetros de Reproducción

    +

    fast_sentence_fragment (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Cuando se establece en True, el método priorizará la velocidad, generando y reproduciendo fragmentos de oraciones más rápidamente.
    • +
    +

    fast_sentence_fragment_allsentences (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, aplica el procesamiento rápido de fragmentos de oraciones a todas las oraciones.
    • +
    +

    fast_sentence_fragment_allsentences_multiple (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, permite generar múltiples fragmentos de oraciones.
    • +
    +

    buffer_threshold_seconds (float)

    +
      +
    • Valor predeterminado: 0.0
    • +
    • Descripción: Especifica el tiempo en segundos para el umbral de búfer.
    • +
    +

    Cómo funciona: Antes de sintetizar una nueva oración, el sistema verifica si queda más material de audio en el búfer que el tiempo especificado. Un valor más alto asegura que haya más audio pre-almacenado en el búfer.

    +

    minimum_sentence_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: Establece la longitud mínima de caracteres para considerar una cadena como una oración.
    • +
    +

    minimum_first_fragment_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: El número mínimo de caracteres requeridos para el primer fragmento de oración.
    • +
    +

    log_synthesized_text (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando está habilitado, registra los fragmentos de texto sintetizados.
    • +
    +

    reset_generated_text (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Si es True, reinicia el texto generado antes del procesamiento.
    • +
    +

    output_wavfile (str)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Si se establece, guarda el audio en el archivo WAV especificado.
    • +
    +

    Funciones de Callback

    +

    on_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama después de sintetizar un fragmento de oración.
    • +
    +

    before_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama antes de sintetizar un fragmento de oración.
    • +
    +

    on_audio_chunk (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama cuando un fragmento de audio está listo.
    • +
    +

    Configuración de Tokenización

    +

    tokenizer (str)

    +
      +
    • Valor predeterminado: "nltk"
    • +
    • Descripción: Tokenizador para la división de oraciones. Admite "nltk" y "stanza".
    • +
    +

    tokenize_sentences (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Función personalizada para tokenizar oraciones del texto de entrada.
    • +
    +

    language (str)

    +
      +
    • Valor predeterminado: "en"
    • +
    • Descripción: Idioma para la división de oraciones.
    • +
    +

    Parámetros de Contexto

    +

    context_size (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Caracteres utilizados para establecer el contexto de límites de oraciones.
    • +
    +

    context_size_look_overhead (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Tamaño de contexto adicional para mirar hacia adelante.
    • +
    +

    Otros Parámetros

    +

    muted (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Deshabilita la reproducción de audio local si es True.
    • +
    +

    sentence_fragment_delimiters (str)

    +
      +
    • Valor predeterminado: ".?!;:,\n…)]}。-"
    • +
    • Descripción: Caracteres considerados como delimitadores de oraciones.
    • +
    +

    force_first_fragment_after_words (int)

    +
      +
    • Valor predeterminado: 15
    • +
    • Descripción: Número de palabras después de las cuales se fuerza el primer fragmento.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/es/contributing/index.html b/ja/es/contributing/index.html new file mode 100755 index 0000000..d0221f4 --- /dev/null +++ b/ja/es/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuir a RealtimeTTS

    +

    Agradecemos cualquier contribución a RealtimeTTS. Aquí tienes algunas formas de contribuir:

    +
      +
    1. +

      Informar de errores: Si encuentras un error, por favor abre una incidencia en nuestro repositorio GitHub.

      +
    2. +
    3. +

      Sugerir mejoras: ¿Tienes ideas para nuevas funciones o mejoras? Nos encantaría escucharlas. Abre una incidencia para sugerir mejoras.

      +
    4. +
    5. +

      Contribuciones de código: ¿Quieres añadir una nueva función o corregir un error? ¡Perfecto! Sigue estos pasos:

      +
    6. +
    7. Abre el repositorio
    8. +
    9. Crea una nueva rama para tu función
    10. +
    11. Realice los cambios
    12. +
    13. +

      Envía un pull request con una descripción clara de tus cambios

      +
    14. +
    15. +

      Documentación: Ayúdanos a mejorar nuestra documentación corrigiendo erratas, añadiendo ejemplos o aclarando secciones confusas.

      +
    16. +
    17. +

      Añadir nuevos motores: Si quieres añadir soporte para un nuevo motor TTS, por favor abre una incidencia primero para discutir la implementación.

      +
    18. +
    +

    Gracias por ayudarnos a mejorar RealtimeTTS.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/es/faq/index.html b/ja/es/faq/index.html new file mode 100755 index 0000000..557c3dc --- /dev/null +++ b/ja/es/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Preguntas frecuentes

    +

    Para obtener respuestas a las preguntas más frecuentes sobre RealtimeTTS, consulta nuestra página de preguntas frecuentes en GitHub.

    +

    Esta página cubre varios temas, entre ellos

    +
      +
    • Uso de diferentes motores TTS
    • +
    • Tratamiento de textos multilingües
    • +
    • Optimización del rendimiento
    • +
    • Solución de problemas comunes
    • +
    +

    Para obtener información más detallada, visite el enlace anterior.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/es/index.html b/ja/es/index.html new file mode 100755 index 0000000..ce7239c --- /dev/null +++ b/ja/es/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    *Biblioteca de conversión de texto en voz fácil de usar y de baja latencia para aplicaciones en tiempo real.

    +

    Acerca del proyecto

    +

    RealtimeTTS es una biblioteca de texto a voz (TTS) de última generación diseñada para aplicaciones en tiempo real. Destaca por su capacidad para convertir rápidamente flujos de texto en salida auditiva de alta calidad con una latencia mínima.

    +

    Características principales

    +
      +
    • Baja latencia: conversión de texto a voz casi instantánea, compatible con salidas LLM.
    • +
    • Audio de alta calidad**: genera un habla clara y natural.
    • +
    • Compatible con múltiples motores TTS**: compatible con OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS y System TTS
    • +
    • Multilingüe
    • +
    • Robusto y fiable**: garantiza un funcionamiento continuo gracias a un mecanismo de reserva que cambia a motores alternativos en caso de interrupciones, lo que garantiza un rendimiento y una fiabilidad constantes.
    • +
    +

    Para obtener instrucciones de instalación, ejemplos de uso y referencias de la API, navegue por la documentación utilizando la barra lateral.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/es/installation/index.html b/ja/es/installation/index.html new file mode 100755 index 0000000..a69cd12 --- /dev/null +++ b/ja/es/installation/index.html @@ -0,0 +1,2243 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Español

    + +
    +

    Nota: Ya no se recomienda la instalación básica con pip install realtimetts, use pip install realtimetts[all] en su lugar.

    +
    +

    La biblioteca RealtimeTTS proporciona opciones de instalación para varias dependencias según su caso de uso. Aquí están las diferentes formas en que puede instalar RealtimeTTS según sus necesidades:

    +

    Instalación Completa

    +

    Para instalar RealtimeTTS con soporte para todos los motores de TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Instalación Personalizada

    +

    RealtimeTTS permite una instalación personalizada con instalaciones mínimas de bibliotecas. Estas son las opciones disponibles: +- all: Instalación completa con todos los motores soportados. +- system: Incluye capacidades de TTS específicas del sistema (por ejemplo, pyttsx3). +- azure: Agrega soporte para Azure Cognitive Services Speech. +- elevenlabs: Incluye integración con la API de ElevenLabs. +- openai: Para servicios de voz de OpenAI. +- gtts: Soporte para Google Text-to-Speech. +- coqui: Instala el motor Coqui TTS. +- minimal: Instala solo los requisitos base sin motor (solo necesario si desea desarrollar un motor propio)

    +

    Por ejemplo, si desea instalar RealtimeTTS solo para uso local de Coqui TTS neuronal, debe usar:

    +
    pip install realtimetts[coqui]
    +
    +

    Si desea instalar RealtimeTTS solo con Azure Cognitive Services Speech, ElevenLabs y soporte de OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Instalación en Entorno Virtual

    +

    Para aquellos que deseen realizar una instalación completa dentro de un entorno virtual, sigan estos pasos:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Más información sobre instalación de CUDA.

    +

    Requisitos de los Motores

    +

    Los diferentes motores soportados por RealtimeTTS tienen requisitos únicos. Asegúrese de cumplir con estos requisitos según el motor que elija.

    +

    SystemEngine

    +

    El SystemEngine funciona de inmediato con las capacidades de TTS incorporadas en su sistema. No se necesita configuración adicional.

    +

    GTTSEngine

    +

    El GTTSEngine funciona de inmediato usando la API de texto a voz de Google Translate. No se necesita configuración adicional.

    +

    OpenAIEngine

    +

    Para usar el OpenAIEngine: +- configure la variable de entorno OPENAI_API_KEY +- instale ffmpeg (ver instalación de CUDA punto 3)

    +

    AzureEngine

    +

    Para usar el AzureEngine, necesitará: +- Clave API de Microsoft Azure Text-to-Speech (proporcionada a través del parámetro "speech_key" del constructor AzureEngine o en la variable de entorno AZURE_SPEECH_KEY) +- Región de servicio de Microsoft Azure.

    +

    Asegúrese de tener estas credenciales disponibles y correctamente configuradas al inicializar el AzureEngine.

    +

    ElevenlabsEngine

    +

    Para el ElevenlabsEngine, necesita: +- Clave API de Elevenlabs (proporcionada a través del parámetro "api_key" del constructor ElevenlabsEngine o en la variable de entorno ELEVENLABS_API_KEY) +- mpv instalado en su sistema (esencial para transmitir audio mpeg, Elevenlabs solo entrega mpeg).

    +

    🔹 Instalación de mpv: + - macOS: + brew install mpv

    +
      +
    • Linux y Windows: Visite mpv.io para instrucciones de instalación.
    • +
    +

    CoquiEngine

    +

    Proporciona TTS neuronal local de alta calidad con clonación de voz.

    +

    Descarga primero un modelo neuronal TTS. En la mayoría de los casos, será lo suficientemente rápido para tiempo real usando síntesis GPU. Necesita alrededor de 4-5 GB de VRAM.

    +
      +
    • para clonar una voz, envíe el nombre del archivo de un archivo wave que contenga la voz fuente como parámetro "voice" al constructor CoquiEngine
    • +
    • la clonación de voz funciona mejor con un archivo WAV mono de 16 bits a 22050 Hz que contenga una muestra corta (~5-30 seg)
    • +
    +

    En la mayoría de los sistemas, se necesitará soporte de GPU para ejecutarse lo suficientemente rápido en tiempo real, de lo contrario experimentará tartamudeo.

    +

    Instalación de CUDA

    +

    Estos pasos son recomendados para aquellos que requieren mejor rendimiento y tienen una GPU NVIDIA compatible.

    +
    +

    Nota: para verificar si su GPU NVIDIA es compatible con CUDA, visite la lista oficial de GPUs CUDA.

    +
    +

    Para usar torch con soporte vía CUDA, siga estos pasos:

    +
    +

    Nota: las instalaciones más nuevas de pytorch pueden (no verificado) no necesitar la instalación de Toolkit (y posiblemente cuDNN).

    +
    +
      +
    1. +

      Instalar NVIDIA CUDA Toolkit: + Por ejemplo, para instalar Toolkit 12.X, por favor

      +
        +
      • Visite NVIDIA CUDA Downloads.
      • +
      • Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo.
      • +
      • Descargue e instale el software.
      • +
      +

      o para instalar Toolkit 11.8, por favor +- Visite NVIDIA CUDA Toolkit Archive. +- Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo. +- Descargue e instale el software.

      +
    2. +
    3. +

      Instalar NVIDIA cuDNN:

      +

      Por ejemplo, para instalar cuDNN 8.7.0 para CUDA 11.x por favor +- Visite NVIDIA cuDNN Archive. +- Haga clic en "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Descargue e instale el software.

      +
    4. +
    5. +

      Instalar ffmpeg:

      +

      Puede descargar un instalador para su sistema operativo desde el sitio web de ffmpeg.

      +

      O usar un gestor de paquetes:

      +
        +
      • +

        En Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        En Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        En MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        En Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        En Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Instalar PyTorch con soporte CUDA:

      +

      Para actualizar su instalación de PyTorch y habilitar el soporte de GPU con CUDA, siga estas instrucciones según su versión específica de CUDA. Esto es útil si desea mejorar el rendimiento de RealtimeSTT con capacidades CUDA.

      +
        +
      • +

        Para CUDA 11.8:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 11.8, use los siguientes comandos:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Para CUDA 12.X:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 12.X, ejecute lo siguiente:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Reemplace 2.3.1 con la versión de PyTorch que coincida con su sistema y requisitos.

      +
    8. +
    9. +

      Solución para resolver problemas de compatibilidad: + Si encuentra problemas de compatibilidad de bibliotecas, intente establecer estas bibliotecas en versiones fijas:

      +

      pip install networkx==2.8.8 +pip install typing_extensions==4.8.0 +pip install fsspec==2023.6.0 +pip install imageio==2.31.6 +pip install networkx==2.8.8 +pip install numpy==1.24.3 +pip install requests==2.31.0

      +
    10. +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/es/usage/index.html b/ja/es/usage/index.html new file mode 100755 index 0000000..9522e12 --- /dev/null +++ b/ja/es/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Uso

    +

    Inicio Rápido

    +

    Aquí hay un ejemplo básico de uso:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Alimentar Texto

    +

    Puede alimentar cadenas individuales:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    O puede alimentar generadores e iteradores de caracteres para la transmisión en tiempo real:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Reproducción

    +

    De forma asíncrona:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    De forma síncrona:

    +
    stream.play()
    +
    +

    Prueba de la Biblioteca

    +

    El subdirectorio de pruebas contiene un conjunto de scripts para ayudarte a evaluar y comprender las capacidades de la biblioteca RealtimeTTS.

    +

    Ten en cuenta que la mayoría de las pruebas aún dependen de la API "antigua" de OpenAI (<1.0.0). El uso de la nueva API de OpenAI se demuestra en openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descripción: Una demostración tipo "hola mundo" del uso más simple de la biblioteca.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descripción: Una demostración completa que muestra la mayoría de las características proporcionadas por la biblioteca.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descripción: Prueba del motor local coqui TTS.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Traducciones en tiempo real a seis idiomas diferentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Interfaz de usuario activada por palabra clave y basada en voz para la API de OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencias: Ejecutar pip install openai keyboard realtimestt.
      • +
      • Descripción: Elija el motor TTS y la voz antes de iniciar la conversación con IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Un talkbot básico en 20 líneas de código.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Demostración simple de cómo integrar la biblioteca con modelos de lenguaje grande (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Muestra los callbacks y te permite verificar los tiempos de latencia en un entorno de aplicación del mundo real.
      • +
      +
    • +
    +

    Pausar, Reanudar y Detener

    +

    Pausar el flujo de audio:

    +
    stream.pause()
    +
    +

    Reanudar un flujo pausado:

    +
    stream.resume()
    +
    +

    Detener el flujo inmediatamente:

    +
    stream.stop()
    +
    +

    Requisitos Explicados

    +
      +
    • Versión de Python:
    • +
    • Requerido: Python >= 3.9, < 3.13
    • +
    • +

      Razón: La biblioteca depende de la biblioteca GitHub "TTS" de coqui, que requiere versiones de Python en este rango.

      +
    • +
    • +

      PyAudio: para crear un flujo de audio de salida

      +
    • +
    • +

      stream2sentence: para dividir el flujo de texto entrante en oraciones

      +
    • +
    • +

      pyttsx3: Motor de conversión de texto a voz del sistema

      +
    • +
    • +

      pydub: para convertir formatos de fragmentos de audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motor de conversión de texto a voz de Azure

      +
    • +
    • +

      elevenlabs: Motor de conversión de texto a voz de Elevenlabs

      +
    • +
    • +

      coqui-TTS: Biblioteca de texto a voz XTTS de Coqui para TTS neuronal local de alta calidad

      +
    • +
    +

    Agradecimiento especial al Instituto de Investigación Idiap por mantener un fork de coqui tts.

    +
      +
    • +

      openai: para interactuar con la API TTS de OpenAI

      +
    • +
    • +

      gtts: Conversión de texto a voz de Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/faq/index.html b/ja/faq/index.html new file mode 100755 index 0000000..6c9f2e4 --- /dev/null +++ b/ja/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    よくある質問

    +

    RealtimeTTSに関するよくある質問の回答については、GitHubのFAQページをご覧ください。

    +

    このページでは、次のようなさまざまなトピックを取り上げています。

    +
      +
    • 異なるTTSエンジンの使用
    • +
    • 多言語テキストの取り扱い
    • +
    • パフォーマンスの最適化
    • +
    • 一般的な問題のトラブルシューティング
    • +
    +

    詳細な情報については、上記のリンクをご覧ください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/fr/api/index.html b/ja/fr/api/index.html new file mode 100755 index 0000000..a325193 --- /dev/null +++ b/ja/fr/api/index.html @@ -0,0 +1,2839 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Français

    + +

    Configuration

    +

    Paramètres d'initialisation pour `TextToAudioStream

    +

    Lorsque vous initialisez la classe TextToAudioStream, vous disposez de diverses options pour personnaliser son comportement. Voici les paramètres disponibles :

    +

    `(BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Obligatoire: Oui
    • +
    • Description : Le moteur sous-jacent responsable de la synthèse texte-audio. Vous devez fournir une instance de ine ou sa sous-classe pour permettre la synthèse audio.
    • +
    +

    _text_stream_start (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est déclenchée lorsque le flux de texte commence. Utilisez-le pour toute configuration ou journalisation dont vous pourriez avoir besoin.
    • +
    +

    _text_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est activée à la fin du flux de texte. Vous pouvez l'utiliser pour des tâches de nettoyage ou de journalisation.
    • +
    +

    _audio_stream_start` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel facultative est invoquée au démarrage du flux audio. Utile pour les mises à jour de l'interface utilisateur ou la journalisation des événements.
    • +
    +

    _audio_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsque le flux audio s'arrête. Idéal pour les tâches de nettoyage des ressources ou de post-traitement.
    • +
    +

    on_character` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsqu'un seul caractère est traité.
    • +
    +

    _device_index (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Aucun
    • +
    • Description : Spécifie l'index du périphérique de sortie à utiliser. Aucun n'utilise le périphérique par défaut.
    • +
    +

    (tokenizer(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: nltk
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases (actuellement « nltk » et « stroza » sont pris en charge).
    • +
    +

    `language(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: fr
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +

    muted(bool)

    +
      +
    • Type: Bool
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Faux
    • +
    • Description : Paramètre global coupé. Si True, aucun flux pyAudio ne sera ouvert. Désactive la lecture audio via des haut-parleurs locaux (au cas où vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio) et remplace le paramètre de mise en sourdine des paramètres de lecture.
    • +
    +

    level (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Défaut:logging.AVERTISSEMENT
    • +
    • Description : Définit le niveau de journalisation pour l'enregistreur interne. Cela peut être n'importe quelle constante entière du module ging intégré de Python.
    • +
    +

    Exemple d'utilisation :

    +

    ``(`python +moteur = YourEngine () # Remplacez-vous par votre moteur +flux = TextToAudioStream( + moteur=engine, + on_text_stream_start=my_text_start_func, + on_text_stream_stop=my_text_stop_func, + on_audio_stream_start=my_audio_start_func, + on_audio_stream_stop=my_audio_stop_func, + niveau=logging.INFO +)

    +

    Méthodes

    +

    play etplay_async`

    +

    Ces méthodes sont responsables de l'exécution de la synthèse texte-audio et de la lecture du flux audio. La différence est que play est une fonction de blocage, tandis que play_async s'exécute dans un thread séparé, permettant à d'autres opérations de se poursuivre.

    +
    Paramètres :
    +
    fast_sentence_fragment (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Lorsqu'elle est définie sur True, la méthode donnera la priorité à la vitesse, générant et jouant plus rapidement des fragments de phrases. Ceci est utile pour les applications où la latence est importante.
    • +
    +
    fast_sentence_fragment_allsentences(bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, applique le traitement rapide des fragments de phrase à toutes les phrases, pas seulement à la première.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, permet de produire plusieurs fragments de phrase au lieu d'un seul.
    • +
    +
    _threshold_seconds (flotteur)
    +
      +
    • Par défaut: 0.0
    • +
    • +

      Description : Spécifie le temps en secondes pour le seuil de mise en mémoire tampon, ce qui a un impact sur la douceur et la continuité de la lecture audio.

      +
    • +
    • +

      Comment ça marche : Avant de synthétiser une nouvelle phrase, le système vérifie s'il reste plus de matériel audio dans le tampon que le temps spécifié par buffer_threshold_seconds. Si tel est le cas, il récupère une autre phrase du générateur de texte, en supposant qu'il peut récupérer et synthétiser cette nouvelle phrase dans la fenêtre temporelle fournie par l'audio restant dans le tampon. Ce processus permet au moteur de synthèse vocale d'avoir plus de contexte pour une meilleure synthèse, améliorant ainsi l'expérience utilisateur.

      +
    • +
    +

    Une valeur plus élevée garantit qu'il y a plus d'audio pré-tamponné, réduisant ainsi le risque de silence ou de lacunes pendant la lecture. Si vous rencontrez des pauses ou des pauses, envisagez d'augmenter cette valeur.

    +
    _sentence_length (int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Définit la longueur minimale des caractères pour considérer une chaîne comme une phrase à synthétiser. Cela affecte la façon dont les morceaux de texte sont traités et lus.
    • +
    +
    _first_fragment_length(int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Le nombre minimum de caractères requis pour le premier fragment de phrase avant de céder.
    • +
    +
    _synthesized_text (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est activé, enregistre les morceaux de texte au fur et à mesure de leur synthèse en audio. Utile pour l'audit et le débogage.
    • +
    +
    #reset_generated_text` (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Si Vrai, réinitialisez le texte généré avant le traitement.
    • +
    +
    _wavfile (str)
    +
      +
    • Par défaut: None
    • +
    • Description : Si défini, enregistrez l'audio dans le fichier WAV spécifié.
    • +
    +
    `_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel appelée après un seul fragment de phrase a été synthétisée.
    • +
    +
    before`_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel qui est appelée avant qu'un seul fragment de phrase ne soit synthétisé.
    • +
    +
    _audio_chunk (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Fonction de rappel qui est appelée lorsqu'un seul morceau audio est prêt.
    • +
    +
    ```(str)
    +
      +
    • Par défaut:"nltk"
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases. Prend actuellement en charge « nltk » et « stroza ».
    • +
    +
    _sentences (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction personnalisée qui tokenise les phrases du texte saisi. Vous pouvez fournir votre propre tokenizer léger si vous n'êtes pas satisfait de nltk et stanza. Il doit prendre du texte comme chaîne et renvoyer des phrases divisées comme liste de chaînes.
    • +
    +
    angu(str)
    +
      +
    • Par défaut:"en"
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +
    _size(int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Le nombre de caractères utilisés pour établir le contexte pour la détection des limites de phrase. Un contexte plus large améliore la précision de la détection des limites des phrases.
    • +
    +
    _size_look_overhead (int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Taille de contexte supplémentaire pour regarder vers l'avenir lors de la détection des limites des phrases.
    • +
    +
    mute (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Si vrai, désactive la lecture audio via des haut-parleurs locaux. Utile lorsque vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio sans les lire.
    • +
    +
    ence_fragment_delimiters (str)
    +
      +
    • Par défaut:"?!;::\n...)]}-
    • +
    • Description : Une chaîne de caractères qui sont considérés comme des délimiteurs de phrases.
    • +
    +
    _first_fragment_after_words (int)
    +
      +
    • Par défaut: 15
    • +
    • Description : Le nombre de mots après lesquels le fragment de la première phrase est forcé d'être donné.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/fr/contributing/index.html b/ja/fr/contributing/index.html new file mode 100755 index 0000000..c9de0a6 --- /dev/null +++ b/ja/fr/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuer à RealtimeTTS

    +

    Nous accueillons les contributions à RealtimeTTS ! Voici quelques façons dont vous pouvez contribuer :

    +
      +
    1. +

      Reporting Bugs : Si vous trouvez un bug, veuillez ouvrir un problème sur notre référentiel GitHub.

      +
    2. +
    3. +

      ** Suggestion d'améliorations** : Vous avez des idées de nouvelles fonctionnalités ou d'améliorations ? Nous serions ravis de les entendre ! Ouvrez un numéro pour suggérer des améliorations.

      +
    4. +
    5. +

      Code Contributions : Vous voulez ajouter une nouvelle fonctionnalité ou corriger un bug ? Super ! Veuillez suivre ces étapes :

      +
    6. +
    7. Fourcher le dépôt
    8. +
    9. Créez une nouvelle branche pour votre fonctionnalité
    10. +
    11. Faites vos changements
    12. +
    13. +

      Soumettez une demande pull avec une description claire de vos modifications

      +
    14. +
    15. +

      Documentation : Aidez-nous à améliorer notre documentation en corrigeant les fautes de frappe, en ajoutant des exemples ou en clarifiant les sections déroutantes.

      +
    16. +
    17. +

      Ajout de nouveaux moteurs : Si vous souhaitez ajouter la prise en charge d'un nouveau moteur TTS, veuillez d'abord ouvrir un numéro pour discuter de l'implémentation.

      +
    18. +
    +

    Merci d'avoir contribué à rendre RealtimeTTS meilleur !

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/fr/faq/index.html b/ja/fr/faq/index.html new file mode 100755 index 0000000..292eb50 --- /dev/null +++ b/ja/fr/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Foire aux questions

    +

    Pour les réponses aux questions fréquemment posées sur RealtimeTTS, veuillez vous référer à notre page FAQ sur GitHub.

    +

    Cette page couvre divers sujets dont

    +
      +
    • Utilisation de différents moteurs TTS
    • +
    • Manipulation de textes multilingues
    • +
    • Optimisation des performances
    • +
    • Dépannage des problèmes courants
    • +
    +

    Pour des informations plus détaillées, veuillez consulter le lien ci-dessus.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/fr/index.html b/ja/fr/index.html new file mode 100755 index 0000000..9ecefe7 --- /dev/null +++ b/ja/fr/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Bibliothèque de synthèse vocale à faible latence et facile à utiliser pour les applications en temps réel

    +

    À propos du projet

    +

    RealtimeTTS est une bibliothèque de synthèse vocale (TTS) de pointe conçue pour les applications en temps réel. Elle se distingue par sa capacité à convertir des flux de texte en sortie auditive de haute qualité avec une latence minimale.

    +

    Caractéristiques clés

    +
      +
    • Faible latence : conversion text-to-speech quasi-instantanée, compatible avec les sorties LLM
    • +
    • Audio de haute qualité : génère un discours clair et naturel
    • +
    • Support de plusieurs moteurs TTS : prend en charge OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS et System TTS
    • +
    • Multilingue
    • +
    • Robuste et fiable : garantit une opération continue grâce à un mécanisme de fallback, bascule vers des moteurs alternatifs en cas de perturbations, garantissant une performance et une fiabilité cohérentes
    • +
    +

    Pour les instructions d'installation, les exemples d'utilisation et la référence de l'API, veuillez naviguer à travers la documentation à l'aide du sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/fr/installation/index.html b/ja/fr/installation/index.html new file mode 100755 index 0000000..e8e9ae5 --- /dev/null +++ b/ja/fr/installation/index.html @@ -0,0 +1,2270 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Français

    + +
    +

    Remarque: Installation de base avec pip install realtimettss n'est plus recommandé, utilisez pip install realtimetts[all] à la place.

    +
    +

    La bibliothèque RealtimeTTS offre des options d'installation pour diverses dépendances pour votre cas d'utilisation. Voici les différentes façons dont vous pouvez installer RealtimeTTS en fonction de vos besoins :

    +

    Installation complète

    +

    Pour installer RealtimeTTS avec prise en charge de tous les moteurs TTS :

    +

    pip install -U realtimetts [tous]

    +

    Installation personnalisée

    +

    RealtimeTTS permet une installation personnalisée avec un minimum d'installations de bibliothèque. Voici les options disponibles : +- all : Installation complète avec chaque moteur pris en charge. +- ** système : Inclut les capacités TTS spécifiques au système (par exemple, pyttsx3). +- azure : ajoute le support vocal Azure Cognitive Services. +- elevenlabs : Comprend l'intégration avec l'API ElevenLabs. +- openai : Pour les services vocaux OpenAI. +- gtts : Prise en charge de Google Text-to-Speech. +- coqui : Installe le moteur Coqui TTS. +- minimal** : installe uniquement les exigences de base sans moteur (nécessaire uniquement si vous souhaitez développer votre propre moteur)

    +

    Supposons que vous souhaitiez installer RealtimeTTS uniquement pour l'utilisation neuronale locale de Coqui TTS, vous devez alors utiliser :

    +

    pip installez realtimetts [coqui]

    +

    Par exemple, si vous souhaitez installer RealtimeTTS avec uniquement Azure Cognitive Services Speech, ElevenLabs et la prise en charge d'OpenAI :

    +

    pip installez realtimetts[azure,elevenlabs,openai]

    +

    Installation de l'environnement virtuel

    +

    Pour ceux qui souhaitent effectuer une installation complète dans un environnement virtuel, procédez comme suit

    +

    python - m venv env_realtimetts +env_realtimetts\Scripts\activate.bat +python.exe - m pip install - upgrade pip +pip install -U realtimetts [tous]

    +

    Plus d'informations sur installation CUDA.

    +

    Exigences du moteur

    +

    Différents moteurs pris en charge par RealtimeTTS ont des exigences uniques. Assurez-vous de remplir ces exigences en fonction du moteur que vous choisissez.

    +

    Moteur système

    +

    Le `SystemEngine fonctionne dès le départ avec les capacités TTS intégrées de votre système. Aucune configuration supplémentaire n'est nécessaire.

    +

    GTTSEngine

    +

    Le GTTSEngine fonctionne dès le départ à l'aide de l'API de synthèse vocale de Google Translate. Aucune configuration supplémentaire n'est nécessaire.

    +

    OpenAIEngine

    +

    Pour utiliser le ``(OpenAIE): +- définir la variable d'environnement OPENAI_API_KEY +- installer ffmpeg (voir installation CUDA point 3)

    +

    AzureEngine

    +

    Pour utiliser le ine, vous aurez besoin de : +- Clé API Microsoft Azure Text-to-Speech (fournie via le paramètre constructeur AzureEngine « speech_key » ou dans la variable d'environnement AZURE_SPEECH_KEY) +- Région de service Microsoft Azure.

    +

    Assurez-vous d'avoir ces informations d'identification disponibles et correctement configurées lors de l'initialisation du AzureEngine.

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    🔹 Installation v: + - macOS: + infuser installer mpv

    +
      +
    • Linux et Windows : Visitez mpv.io pour les instructions d'installation.
    • +
    +

    CoquiEngine

    +

    Offre un TTS neuronal local de haute qualité avec clonage vocal.

    +

    Télécharge d'abord un modèle TTS neuronal. Dans la plupart des cas, il est suffisamment rapide pour le temps réel utilisant la synthèse GPU. Nécessite environ 4 à 5 Go de VRAM.

    +
      +
    • pour cloner une voix, soumettez le nom de fichier d'un fichier d'onde contenant la voix source comme paramètre « voix » au constructeur CoquiEngine
    • +
    • le clonage vocal fonctionne mieux avec un fichier WAV mono 16 bits de 22 050 Hz contenant un échantillon court (~5 à 30 secondes)
    • +
    +

    Sur la plupart des systèmes, la prise en charge du GPU sera nécessaire pour fonctionner suffisamment rapidement en temps réel, sinon vous ferez l'expérience du bégaiement.

    +

    Installation CUDA

    +

    Ces étapes sont recommandées pour ceux qui ont besoin de ** meilleures performances ** et disposent d'un GPU NVIDIA compatible.

    +
    +

    Remarque : pour vérifier si votre GPU NVIDIA prend en charge CUDA, visitez la liste officielle des GPU CUDA.

    +
    +

    Pour utiliser une torche avec support via CUDA, veuillez suivre ces étapes :

    +
    +

    Remarque : les installations de pythorque plus récentes peuvent (non vérifié) n'ont plus besoin d'installation de Toolkit (et éventuellement de cuDNN).

    +
    +
      +
    1. +

      Installer NVIDIA CUDA Toolkit: + Par exemple, pour installer Toolkit 12.X, s'il te plaît

      +
        +
      • Visitez NVIDIA CUDA Téléchargements.
      • +
      • Sélectionnez votre système d'exploitation, votre architecture système et votre version os.
      • +
      • Téléchargez et installez le logiciel.
      • +
      +

      ou pour installer Toolkit 11.8, s'il vous plaît +- Visitez Archive de la boîte à outils CUDA NVIDIA. +- Sélectionnez votre système d'exploitation, votre architecture système et votre version os. +- Téléchargez et installez le logiciel.

      +
    2. +
    3. +

      Installer NVIDIA cuDNN:

      +

      Par exemple, pour installer cuDNN 8.7.0 pour CUDA 11. x s'il vous plaît +- Visitez NVIDIA cuDNN Archive. +- Cliquez sur « Télécharger cuDNN v8.7.0 (28 novembre 2022), pour CUDA 11.x ». +- Téléchargez et installez le logiciel.

      +
    4. +
    5. +

      Installer ffmpeg:

      +

      Vous pouvez télécharger un programme d'installation pour votre système d'exploitation à partir du site Web deffmpeg.

      +

      Ou utilisez un gestionnaire de packages :

      +
        +
      • +

        Sur Ubuntu ou Debian: + sudo apt update & & sudo apt install ffmpeg

        +
      • +
      • +

        Sur Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Sur MacOS utilisant Homebrew (https://brew.sh/): + infuser installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Chocolatey (https://chocolatey.org/): + choco installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Scoop (https://scoop.sh/): + scoop installer ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installez PyTorch avec le support CUDA :

      +

      Pour mettre à niveau votre installation PyTorch afin d'activer le support GPU avec CUDA, suivez ces instructions en fonction de votre version CUDA spécifique. Ceci est utile si vous souhaitez améliorer les performances de RealtimeSTT avec les capacités CUDA.

      +
        +
      • +

        Pour CUDA 11.8:

        +

        Pour mettre à jour PyTorch et Torchaudio afin de prendre en charge CUDA 11.8, utilisez les commandes suivantes :

        +

        pip installe torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Pour CUDA 12.X:

        +

        Pour mettre à jour PyTorch et Torchaudio pour prendre en charge CUDA 12.X, exécutez ce qui suit :

        +

        pip installe torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Remplacer ` of PyTorch that matching your system and requirements.

      +
    8. +
    9. +

      ** Correction pour résoudre les problèmes de compatibilité** : + Si vous rencontrez des problèmes de compatibilité de bibliothèque, essayez de définir ces bibliothèques sur des versions fixes :

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/fr/usage/index.html b/ja/fr/usage/index.html new file mode 100755 index 0000000..58d70a6 --- /dev/null +++ b/ja/fr/usage/index.html @@ -0,0 +1,2146 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Utilisation

    +

    Démarrage rapide

    +

    Voici un exemple d'utilisation de base :

    +

    ```(python +depuis RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine

    +

    moteur = SystemEngine () # remplacer par votre moteur TTS +flux = TextToAudioStream(moteur) +stream.feed("Bonjour le monde! Comment ça va aujourd'hui ?") +stream.play_async() +``

    +

    Flux Texte

    +

    Vous pouvez alimenter des chaînes individuelles :

    +

    ``(`python +stream.feed(« Bonjour, c'est une phrase. »)

    +

    Ou vous pouvez alimenter des générateurs et des itérateurs de caractères pour le streaming en temps réel :

    +

    ```(python +def write (prompt : str) : + pour chunk en openai.ChatCompletion.create( + modèle="gpt-3.5-turbo", + messages=[{"role": "utilisateur", "contenu" : prompt}], + stream=True + ): + si (text_chunk := chunk[« choix »][0][« delta »].get(« contenu »)) n'est pas Aucun : + produire du texte_chunk

    +

    text_stream = write (« Un discours relaxant en trois phrases »)

    +

    stream.feed(text_stream) +``

    +

    ``(`python +char_iterator = iter (« Diffusion de ce personnage par personnage ») +stream.feed (char_iterator)

    +

    Layback

    +

    Asynchrone:

    +

    ``(`python +stream.play_async() +pendant que stream.is_playing(): + temps.sommeil(0,1)

    +

    Synchronisé:

    +

    ``(`python +stream.play()

    +

    Tester la bibliothèque

    +

    Le sous-répertoire de test contient un ensemble de scripts pour vous aider à évaluer et comprendre les capacités de la bibliothèque RealtimeTTS.

    +

    Notez que la plupart des tests reposent toujours sur l'« ancienne » API OpenAI (<1.0.0). L'utilisation de la nouvelle API OpenAI est démontrée dans openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description : Une démonstration de style « hello world » de l'usage le plus simple de la bibliothèque.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description : Une démonstration complète présentant la plupart des fonctionnalités fournies par la bibliothèque.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description : Test du moteur local coqui TTS.
      • +
      +
    • +
    • +

      traducteur.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Traductions en temps réel dans six langues différentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Interface utilisateur activée par mot de réveil et basée sur la voix vers l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dépendances: Exécuter pip install openai keyboard realtimestt.
      • +
      • Description : Choisissez le moteur et la voix TTS avant de démarrer la conversation sur l'IA.
      • +
      +
    • +
    • +

      _talkbot.py minimaliste

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Un talkbot basique en 20 lignes de code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : Démonstration simple de la façon d'intégrer la bibliothèque avec de grands modèles de langage (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : présente les rappels et vous permet de vérifier les temps de latence dans un environnement d'application réel.
      • +
      +
    • +
    +

    Mettre en pause, reprendre et arrêter

    +

    Mettre en pause le flux audio :

    +

    ``(`python +stream.pause()

    +

    Reprendre un flux en pause :

    +

    ``(`python +stream.reprendre()

    +

    Arrêtez immédiatement le flux :

    +

    ``(`python +stream.stop()

    +

    Exigences expliquées

    +
      +
    • Version Python:
    • +
    • Obligatoire: Python >= 3.9, < 3.13
    • +
    • +

      Raison : La bibliothèque dépend de la bibliothèque GitHub « TTS » de coqui, qui nécessite des versions Python dans cette gamme.

      +
    • +
    • +

      PyAudio : pour créer un flux audio de sortie

      +
    • +
    • +

      stream2sent : pour diviser le flux de texte entrant en phrases

      +
    • +
    • +

      pyttsx3 : Moteur de conversion texte-parole du système

      +
    • +
    • +

      pydub : pour convertir les formats de morceaux audio

      +
    • +
    • +

      azure-cognitiveservices-speech : Moteur de conversion texte-parole azur

      +
    • +
    • +

      elevenlabs : Moteur de conversion texte-parole Elevenlabs

      +
    • +
    • +

      coqui-TTS : Bibliothèque de synthèse vocale XTTS de Coqui pour un TTS neuronal local de haute qualité

      +
    • +
    +

    Criez à Idiap Research Institute pour entretenir une fourche de coqui tts.

    +
      +
    • +

      openai : pour interagir avec l'API TTS d'OpenAI

      +
    • +
    • +

      gtts : Google traduit la conversion texte-parole

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/hi/api/index.html b/ja/hi/api/index.html new file mode 100755 index 0000000..14ecf40 --- /dev/null +++ b/ja/hi/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    हिंदी

    + +

    कॉन्फ़िगरेशन

    +

    TextToAudioStream के लिए प्रारंभिक पैरामीटर

    +

    जब आप TextToAudioStream क्लास का इनिशियलाइज़ेशन करते हैं, तो आपके पास इसके व्यवहार को कस्टमाइज़ करने के लिए विभिन्न विकल्प होते हैं। यहाँ उपलब्ध पैरामीटर हैं:

    +

    engine (BaseEngine)

    +
      +
    • प्रकार: BaseEngine
    • +
    • आवश्यकता: हाँ
    • +
    • विवरण: टेक्स्ट-से-ऑडियो सिंथेसिस के लिए ज़िम्मेदार आधार इंजन। आपको ऑडियो सिंथेसिस को सक्षम करने के लिए BaseEngine या इसके सबक्लास का एक इंस्टेंस प्रदान करना होगा।
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब ट्रिगर होता है जब टेक्स्ट स्ट्रीम शुरू होती है। इसे किसी सेटअप या लॉगिंग के लिए उपयोग करें।
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन टेक्स्ट स्ट्रीम समाप्त होने पर सक्रिय होता है। इसे क्लीनअप कार्यों या लॉगिंग के लिए उपयोग किया जा सकता है।
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब चालू होता है जब ऑडियो स्ट्रीम शुरू होती है। यह UI अपडेट या इवेंट लॉगिंग के लिए सहायक है।
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन ऑडियो स्ट्रीम समाप्त होने पर कॉल किया जाता है। यह संसाधन क्लीनअप या पोस्ट-प्रोसेसिंग कार्यों के लिए आदर्श है।
    • +
    +

    on_character (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब कॉल किया जाता है जब एकल कैरेक्टर प्रोसेस किया जाता है।
    • +
    +

    output_device_index (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: उपयोग करने के लिए आउटपुट डिवाइस इंडेक्स निर्दिष्ट करता है। None डिफ़ॉल्ट डिवाइस का उपयोग करता है।
    • +
    +

    tokenizer (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: nltk
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग किए जाने वाले टोकनाइज़र (वर्तमान में "nltk" और "stanza" समर्थित हैं)।
    • +
    +

    language (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: en
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +

    muted (bool)

    +
      +
    • प्रकार: बूल
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: ग्लोबल म्यूटेड पैरामीटर। अगर True है, तो कोई pyAudio स्ट्रीम नहीं खोली जाएगी। स्थानीय स्पीकरों के माध्यम से ऑडियो प्लेबैक को अक्षम करता है और प्ले पैरामीटर म्यूट सेटिंग को ओवरराइड करता है।
    • +
    +

    level (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: logging.WARNING
    • +
    • विवरण: आंतरिक लॉगर के लिए लॉगिंग स्तर सेट करता है। यह पायथन के बिल्ट-इन logging मॉड्यूल से कोई भी इंटीजर कॉन्स्टेंट हो सकता है।
    • +
    +

    उदाहरण उपयोग:

    +
    engine = YourEngine()  # अपने इंजन के साथ प्रतिस्थापित करें
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    मेथड्स

    +

    play और play_async

    +

    ये मेथड्स टेक्स्ट-से-ऑडियो सिंथेसिस को निष्पादित करने और ऑडियो स्ट्रीम प्ले करने के लिए जिम्मेदार हैं। play एक ब्लॉकिंग फंक्शन है, जबकि play_async एक अलग थ्रेड में चलता है, जिससे अन्य ऑपरेशंस जारी रह सकते हैं।

    +
    पैरामीटर:
    +
    fast_sentence_fragment (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह विधि स्पीड को प्राथमिकता देगी, और वाक्यांशों को तेजी से जनरेट और प्ले करेगी। यह ऐसे अनुप्रयोगों के लिए सहायक है जहाँ विलंबता मायने रखती है।
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो सभी वाक्यों पर फास्ट वाक्यांश प्रोसेसिंग लागू करता है।
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह एकल के बजाय एकाधिक वाक्यांश उत्पन्न करने की अनुमति देता है।
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • डिफ़ॉल्ट: 0.0
    • +
    • +

      विवरण: बफ़रिंग सीमा के लिए समय को सेकंड में निर्दिष्ट करता है, जो ऑडियो प्लेबैक की स्थिरता और निरंतरता को प्रभावित करता है।

      +
    • +
    • +

      कैसे काम करता है: नए वाक्य का सिंथेसिस करने से पहले, सिस्टम यह जांचता है कि क्या बफ़र में निर्दिष्ट समय से अधिक ऑडियो सामग्री बची है। इससे यह सुनिश्चित होता है कि अधिक प्री-बफ़र किए गए ऑडियो से प्लेबैक में मौन या अंतराल कम हो।

      +
    • +
    +
    minimum_sentence_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: एक स्ट्रिंग को सिंथेसाइज़ करने के लिए वाक्य के रूप में मानने के लिए न्यूनतम कैरेक्टर की लंबाई सेट करता है।
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: पहले वाक्यांश के लिए आवश्यक न्यूनतम कैरेक्टर की संख्या सेट करता है।
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: सक्षम होने पर, ऑडियो में सिंथेसाइज़ होते समय टेक्स्ट के अंशों को लॉग करता है।
    • +
    +
    reset_generated_text (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: अगर True है, तो प्रोसेसिंग से पहले जनरेट किए गए टेक्स्ट को रीसेट करता है।
    • +
    +
    output_wavfile (str)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: यदि सेट है, तो ऑडियो को निर्दिष्ट WAV फाइल में सहेजता है।
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने के बाद कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने से पहले कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल ऑडियो टुकड़ा तैयार होने पर कॉल किया जाने वाला कॉलबैक फंक्शन।
    • +
    +
    tokenizer (str)
    +
      +
    • डिफ़ॉल्ट: "nltk"
    • +
    • विवरण: वाक्य विभाजन के लिए टोकनाइज़र। वर्तमान में "nltk" और "stanza" का समर्थन है।
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: टेक्स्ट से वाक्य को टोकनाइज़ करने
    • +
    +

    वाला एक कस्टम फंक्शन। यदि आप nltk और stanza से संतुष्ट नहीं हैं, तो अपना स्वयं का टोकनाइज़र प्रदान कर सकते हैं।

    +
    language (str)
    +
      +
    • डिफ़ॉल्ट: "en"
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +
    context_size (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाने के लिए संदर्भ स्थापित करने के लिए प्रयुक्त कैरेक्टर की संख्या।
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाते समय आगे देखने के लिए अतिरिक्त संदर्भ आकार।
    • +
    +
    muted (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: यदि True है, तो स्थानीय स्पीकर के माध्यम से ऑडियो प्लेबैक को अक्षम करता है।
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • डिफ़ॉल्ट: ".?!;:,\n…)]}。-"
    • +
    • विवरण: उन कैरेक्टर की स्ट्रिंग जो वाक्य सीमाओं के रूप में माने जाते हैं।
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • डिफ़ॉल्ट: 15
    • +
    • विवरण: पहले वाक्यांश को उत्पन्न करने के लिए आवश्यक शब्दों की संख्या।
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/hi/contributing/index.html b/ja/hi/contributing/index.html new file mode 100755 index 0000000..8d8aa41 --- /dev/null +++ b/ja/hi/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS में योगदान करें

    +

    हम RealtimeTTS में आपके योगदान का स्वागत करते हैं! आप इन तरीकों से योगदान कर सकते हैं:

    +
      +
    1. +

      बग रिपोर्ट करना: यदि आपको कोई बग मिलता है, तो कृपया हमारे GitHub रिपॉजिटरी पर एक इश्यू खोलें।

      +
    2. +
    3. +

      सुधारों का सुझाव देना: क्या आपके पास नई सुविधाओं या सुधारों के लिए सुझाव हैं? हमें उन्हें सुनकर खुशी होगी! कृपया सुधारों का सुझाव देने के लिए एक इश्यू खोलें।

      +
    4. +
    5. +

      कोड योगदान: कोई नई सुविधा जोड़ना चाहते हैं या किसी बग को ठीक करना चाहते हैं? शानदार! कृपया इन चरणों का पालन करें:

      +
    6. +
    7. रिपॉजिटरी को फोर्क करें
    8. +
    9. अपने फीचर के लिए एक नई ब्रांच बनाएं
    10. +
    11. अपने बदलाव करें
    12. +
    13. +

      अपने बदलावों का स्पष्ट विवरण देते हुए एक पुल रिक्वेस्ट सबमिट करें

      +
    14. +
    15. +

      दस्तावेज़ीकरण: टाइपो सुधारने, उदाहरण जोड़ने या भ्रमित करने वाले भागों को स्पष्ट करके हमें अपने दस्तावेज़ीकरण में सुधार करने में मदद करें।

      +
    16. +
    17. +

      नए इंजनों को जोड़ना: यदि आप किसी नए TTS इंजन के लिए समर्थन जोड़ना चाहते हैं, तो कृपया पहले एक इश्यू खोलें ताकि हम इसके कार्यान्वयन पर चर्चा कर सकें।

      +
    18. +
    +

    RealtimeTTS को बेहतर बनाने में मदद करने के लिए धन्यवाद!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/hi/faq/index.html b/ja/hi/faq/index.html new file mode 100755 index 0000000..1c7c1c2 --- /dev/null +++ b/ja/hi/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    अक्सर पूछे जाने वाले प्रश्न

    +

    RealtimeTTS से संबंधित अक्सर पूछे जाने वाले प्रश्नों के उत्तर के लिए, कृपया हमारे GitHub पर FAQ पेज पर जाएँ।

    +

    यह पेज विभिन्न विषयों को कवर करता है, जिनमें शामिल हैं:

    +
      +
    • विभिन्न TTS इंजनों का उपयोग
    • +
    • बहुभाषी टेक्स्ट को संभालना
    • +
    • प्रदर्शन में सुधार
    • +
    • सामान्य समस्याओं का समाधान
    • +
    +

    अधिक विस्तृत जानकारी के लिए, कृपया ऊपर दिए गए लिंक पर जाएँ।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/hi/index.html b/ja/hi/index.html new file mode 100755 index 0000000..10a4510 --- /dev/null +++ b/ja/hi/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    रीयल-टाइम अनुप्रयोगों के लिए उपयोग में आसान, कम-विलंबता वाला टेक्स्ट-टू-स्पीच लाइब्रेरी

    +

    परियोजना के बारे में

    +

    RealtimeTTS एक अत्याधुनिक टेक्स्ट-टू-स्पीच (TTS) लाइब्रेरी है, जिसे रीयल-टाइम अनुप्रयोगों के लिए डिज़ाइन किया गया है। इसकी सबसे बड़ी विशेषता यह है कि यह न्यूनतम विलंबता के साथ टेक्स्ट स्ट्रीम को तेज़ी से उच्च-गुणवत्ता वाली ध्वनि में परिवर्तित कर सकता है।

    +

    मुख्य विशेषताएँ

    +
      +
    • कम विलंबता: लगभग तात्कालिक टेक्स्ट-टू-स्पीच रूपांतरण, LLM आउटपुट के अनुकूल
    • +
    • उच्च-गुणवत्ता वाली ध्वनि: स्पष्ट और प्राकृतिक-ध्वनि उत्पन्न करता है
    • +
    • विभिन्न TTS इंजनों का समर्थन: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS और System TTS का समर्थन करता है
    • +
    • बहुभाषी समर्थन
    • +
    • मजबूत और विश्वसनीय: लगातार संचालन सुनिश्चित करने के लिए एक फ़ॉलबैक तंत्र का उपयोग करता है, व्यवधानों के मामले में वैकल्पिक इंजनों पर स्विच करता है, जो स्थिरता और विश्वसनीयता की गारंटी देता है
    • +
    +

    स्थापना निर्देशों, उपयोग के उदाहरणों और API संदर्भ के लिए, कृपया साइडबार का उपयोग करके दस्तावेज़ में नेविगेट करें।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/hi/installation/index.html b/ja/hi/installation/index.html new file mode 100755 index 0000000..b0d970f --- /dev/null +++ b/ja/hi/installation/index.html @@ -0,0 +1,2216 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | HN

    +
    +

    नोट: pip install realtimetts का बेसिक इंस्टॉलेशन अब अनुशंसित नहीं है, इसके बजाय pip install realtimetts[all] का उपयोग करें।

    +
    +

    RealtimeTTS लाइब्रेरी विभिन्न निर्भरताओं के साथ इंस्टॉलेशन के विकल्प प्रदान करती है, ताकि आप अपने उपयोग के अनुसार इसे स्थापित कर सकें। यहाँ इंस्टॉलेशन के विभिन्न विकल्प दिए गए हैं:

    +

    पूर्ण स्थापना

    +

    सभी TTS इंजनों के समर्थन के साथ RealtimeTTS स्थापित करने के लिए:

    +
    pip install -U realtimetts[all]
    +
    +

    कस्टम इंस्टॉलेशन

    +

    RealtimeTTS में न्यूनतम लाइब्रेरी इंस्टॉलेशन के साथ कस्टम इंस्टॉलेशन की सुविधा है। उपलब्ध विकल्प:

    +
      +
    • all: सभी इंजनों के साथ पूर्ण इंस्टॉलेशन।
    • +
    • system: सिस्टम-विशिष्ट TTS क्षमताएँ शामिल करता है (जैसे, pyttsx3)।
    • +
    • azure: Azure Cognitive Services Speech का समर्थन जोड़ता है।
    • +
    • elevenlabs: ElevenLabs API के साथ एकीकरण।
    • +
    • openai: OpenAI वॉइस सेवाओं के लिए।
    • +
    • gtts: Google Text-to-Speech समर्थन।
    • +
    • coqui: Coqui TTS इंजन स्थापित करता है।
    • +
    • minimal: केवल बेस आवश्यकताओं को स्थापित करता है, बिना किसी इंजन के (यदि आप अपना इंजन विकसित करना चाहते हैं तो इसकी आवश्यकता होती है)।
    • +
    +

    उदाहरण के लिए, केवल स्थानीय न्यूरल Coqui TTS उपयोग के लिए RealtimeTTS स्थापित करना हो, तो उपयोग करें:

    +
    pip install realtimetts[coqui]
    +
    +

    अगर आप केवल Azure Cognitive Services Speech, ElevenLabs, और OpenAI का समर्थन चाहते हैं तो:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    वर्चुअल एनवायरनमेंट इंस्टॉलेशन

    +

    यदि आप एक वर्चुअल एनवायरनमेंट में पूर्ण स्थापना करना चाहते हैं, तो ये कदम अपनाएँ:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA इंस्टॉलेशन के बारे में अधिक जानकारी।

    +

    इंजन आवश्यकताएँ

    +

    RealtimeTTS द्वारा समर्थित विभिन्न इंजनों की अलग-अलग आवश्यकताएँ हैं। अपनी पसंद के अनुसार इन आवश्यकताओं को पूरा करना सुनिश्चित करें।

    +

    SystemEngine

    +

    SystemEngine आपके सिस्टम की अंतर्निहित TTS क्षमताओं के साथ स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    GTTSEngine

    +

    GTTSEngine Google Translate के टेक्स्ट-टू-स्पीच API का उपयोग करके स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    OpenAIEngine

    +

    OpenAIEngine का उपयोग करने के लिए: +- पर्यावरण वेरिएबल OPENAI_API_KEY सेट करें +- ffmpeg स्थापित करें (देखें CUDA इंस्टॉलेशन बिंदु 3)

    +

    AzureEngine

    +

    AzureEngine का उपयोग करने के लिए आपको चाहिए: +- Microsoft Azure Text-to-Speech API कुंजी (AzureEngine में "speech_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल AZURE_SPEECH_KEY में) +- Microsoft Azure सेवा क्षेत्र।

    +

    इंस्टॉल करते समय ये क्रेडेंशियल उपलब्ध और सही तरीके से कॉन्फ़िगर करना सुनिश्चित करें।

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine के लिए, आपको चाहिए: +- Elevenlabs API कुंजी (ElevenlabsEngine में "api_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल ELEVENLABS_API_KEY में) +- आपके सिस्टम पर mpv स्थापित हो (mpeg ऑडियो स्ट्रीमिंग के लिए आवश्यक है, Elevenlabs केवल mpeg प्रदान करता है)।

    +

    🔹 mpv स्थापित करना: + - macOS: + brew install mpv

    +
      +
    • Linux और Windows: इंस्टॉलेशन के निर्देशों के लिए mpv.io पर जाएं।
    • +
    +

    CoquiEngine

    +

    उच्च गुणवत्ता, स्थानीय, न्यूरल TTS प्रदान करता है जिसमें वॉइस-क्लोनिंग भी शामिल है।

    +

    पहली बार एक न्यूरल TTS मॉडल डाउनलोड करता है। अधिकतर मामलों में GPU सिंथेसिस का उपयोग करते हुए रीयल-टाइम के लिए पर्याप्त तेज़ होगा। लगभग 4-5 GB VRAM की आवश्यकता होती है।

    +
      +
    • वॉइस क्लोन करने के लिए CoquiEngine के "voice" पैरामीटर में एक वेव फ़ाइल का नाम दर्ज करें जिसमें स्रोत वॉइस हो।
    • +
    • वॉइस क्लोनिंग के लिए 22050 Hz मोनो 16-बिट WAV फाइल के साथ लगभग 5-30 सेकंड की नमूना ऑडियो फ़ाइल सबसे अच्छा परिणाम देती है।
    • +
    +

    CUDA इंस्टॉलेशन

    +

    वे लोग जिनके पास NVIDIA GPU है और जो बेहतर प्रदर्शन चाहते हैं, उनके लिए ये कदम अनुशंसित हैं।

    +
    +

    नोट: अगर आपका NVIDIA GPU CUDA को सपोर्ट करता है तो आधिकारिक CUDA GPUs सूची पर जाँचें।

    +
    +

    CUDA समर्थन के साथ torch का उपयोग करने के लिए, इन चरणों का पालन करें:

    +
      +
    1. +

      NVIDIA CUDA टूलकिट स्थापित करें: + उदाहरण के लिए, टूलकिट 12.X स्थापित करने के लिए:

      +
        +
      • NVIDIA CUDA डाउनलोड पर जाएँ।
      • +
      • अपने ऑपरेटिंग सिस्टम, सिस्टम आर्किटेक्चर, और ओएस संस्करण का चयन करें।
      • +
      • सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।
      • +
      +
    2. +
    3. +

      NVIDIA cuDNN स्थापित करें:

      +

      उदाहरण के लिए, CUDA 11.x के लिए cuDNN 8.7.0 स्थापित करने के लिए: +- NVIDIA cuDNN Archive पर जाएं। +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x" पर क्लिक करें। +- सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।

      +
    4. +
    5. +

      ffmpeg स्थापित करें:

      +

      आप अपने OS के लिए ffmpeg वेबसाइट से इंस्टॉलर डाउनलोड कर सकते हैं: ffmpeg Website

      +
    6. +
    7. +

      CUDA समर्थन के साथ PyTorch स्थापित करें:

      +

      अपने सिस्टम और आवश्यकताओं के अनुसार PyTorch संस्करण को CUDA समर्थन के साथ अपग्रेड करने के लिए:

      +
        +
      • +

        CUDA 11.8 के लिए:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        CUDA 12.X के लिए:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +
    8. +
    9. +

      संगतता समस्याओं को हल करने के लिए फिक्स: + यदि आप लाइब्रेरी संगतता मुद्दों का सामना करते हैं, तो इन लाइब्रेरी संस्करणों को फिक्स करने का प्रयास करें:

      +
    10. +
    +

    pip install networkx==2.8.8 + pip install typing_extensions==4.8.0 + pip install fsspec==2023.6.0 + pip install imageio==2.31.6 + pip install numpy==1.24.3 + pip install requests==2.31.0

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/hi/usage/index.html b/ja/hi/usage/index.html new file mode 100755 index 0000000..f679cc3 --- /dev/null +++ b/ja/hi/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    उपयोग

    +

    त्वरित प्रारंभ

    +

    यहाँ एक बुनियादी उदाहरण दिया गया है:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # अपनी TTS-इंजन के साथ इसे बदलें
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    टेक्स्ट इनपुट

    +

    आप व्यक्तिगत स्ट्रिंग्स इनपुट कर सकते हैं:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    या आप वास्तविक समय-स्ट्रीमिंग के लिए जनरेटर और कैरेक्टर-इटरेटर का उपयोग कर सकते हैं:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    प्लेबैक

    +

    असिंक्रोनस:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    सिंक्रोनस:

    +
    stream.play()
    +
    +

    लाइब्रेरी का परीक्षण

    +

    परीक्षण-सबडायरेक्टरी में विभिन्न स्क्रिप्ट्स शामिल हैं, जो आपको RealtimeTTS लाइब्रेरी की क्षमताओं को समझने और आकलन करने में मदद करती हैं।

    +

    ध्यान दें कि अधिकांश परीक्षण अभी भी "पुरानी" OpenAI API (<1.0.0) पर आधारित हैं। नई OpenAI API का उपयोग openai_1.0_test.py में प्रदर्शित किया गया है।

    +
      +
    • +

      simple_test.py

      +
        +
      • विवरण: सबसे आसान लाइब्रेरी उपयोग का एक "Hello World" जैसा प्रदर्शन।
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • विवरण: लाइब्रेरी की अधिकतम कार्यक्षमता का व्यापक प्रदर्शन।
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • विवरण: स्थानीय Coqui TTS-इंजन का परीक्षण।
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: वास्तविक समय में छह विभिन्न भाषाओं में अनुवाद।
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: एक्टिवेशन-वर्ड के माध्यम से और आवाज-आधारित इंटरफ़ेस के साथ OpenAI API का उपयोग।
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • आवश्यकताएँ: pip install openai keyboard realtimestt कमांड चलाएँ।
      • +
      • विवरण: AI बातचीत शुरू करने से पहले TTS-इंजन और आवाज का चयन।
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: 20 कोड लाइनों में एक साधारण टॉकबोट।
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: लाइब्रेरी की LLMs के साथ एकीकृत करने का सरल प्रदर्शन।
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: वास्तविक वातावरण में विलंब समय को मापने और प्रतिक्रिया को प्रदर्शित करता है।
      • +
      +
    • +
    +

    रुकना, पुनः आरंभ करना और रोकना

    +

    ऑडियो स्ट्रीम को रोकें:

    +
    stream.pause()
    +
    +

    रुकी हुई स्ट्रीम पुनः प्रारंभ करें:

    +
    stream.resume()
    +
    +

    स्ट्रीम तुरंत रोकें:

    +
    stream.stop()
    +
    +

    आवश्यकताओं का स्पष्टीकरण

    +
      +
    • Python संस्करण:
    • +
    • आवश्यक: Python >= 3.9, < 3.13
    • +
    • +

      कारण: लाइब्रेरी Coqui की GitHub लाइब्रेरी "TTS" पर निर्भर करती है, जो इस संस्करण सीमा का समर्थन करती है।

      +
    • +
    • +

      PyAudio: ऑडियो आउटपुट स्ट्रीम बनाने के लिए

      +
    • +
    • +

      stream2sentence: इनकमिंग टेक्स्ट स्ट्रीम को वाक्यों में विभाजित करने के लिए

      +
    • +
    • +

      pyttsx3: सिस्टम Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      pydub: ऑडियो चंक फॉर्मेट्स में कन्वर्शन के लिए

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      coqui-TTS: उच्च गुणवत्ता वाली स्थानीय न्यूरल TTS के लिए Coqui का XTTS Text-to-Speech लाइब्रेरी

      +
    • +
    +

    Idiap Research Institute को उनके Coqui TTS का Fork बनाए रखने के लिए धन्यवाद।

    +
      +
    • +

      openai: OpenAI TTS API के साथ बातचीत के लिए

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech कन्वर्शन

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/index.html b/ja/index.html new file mode 100755 index 0000000..3af98bd --- /dev/null +++ b/ja/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    リアルタイムTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    リアルタイムアプリケーション向けの使いやすく、低遅延のテキスト読み上げライブラリ

    +

    プロジェクトについて

    +

    RealtimeTTSは、リアルタイムアプリケーション向けに設計された最先端のテキスト読み上げ(TTS)ライブラリです。 それは、テキストストリームを迅速に高品質な音声出力に変換する能力において際立っています。

    +

    主な特徴

    +
      +
    • 低遅延: ほぼ瞬時にテキストを音声に変換し、LLM出力と互換性があります
    • +
    • 高品質な音声: 明瞭で自然な音声を生成します
    • +
    • 複数のTTSエンジンサポート: OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS、System TTSをサポートします
    • +
    • 多言語対応
    • +
    • 堅牢で信頼性が高い: フォールバックメカニズムを通じて継続的な運用を保証し、障害が発生した場合には代替エンジンに切り替えて、一貫したパフォーマンスと信頼性を確保します。
    • +
    +

    インストール手順、使用例、およびAPIリファレンスについては、サイドバーを使用してドキュメントを参照してください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/installation/index.html b/ja/installation/index.html new file mode 100755 index 0000000..63d3036 --- /dev/null +++ b/ja/installation/index.html @@ -0,0 +1,2155 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    日本語

    + +
    +

    注意: pip install realtimetts での基本インストールは推奨されなくなりました。代わりに pip install realtimetts[all] を使用してください。

    +
    +

    RealtimeTTSライブラリは、あなたのユースケースに応じたさまざまな依存関係のインストールオプションを提供します。 ニーズに応じてRealtimeTTSをインストールする方法はいくつかあります:

    +

    フルインストール

    +

    すべてのTTSエンジンに対応したRealtimeTTSをインストールするには:

    +
    pip install -U realtimetts[all]
    +
    +

    カスタムインストール

    +

    RealtimeTTSは、最小限のライブラリインストールでカスタムインストールを可能にします。 こちらが利用可能なオプションです。 +- すべて: すべてのエンジンがサポートされた完全なインストール。 +- システム: システム固有のTTS機能を含む (e.g., pyttsx3). +- azure: Azure Cognitive Services Speechサポートを追加します。 +- elevenlabs: ElevenLabs APIとの統合が含まれています。 +- openai: OpenAIの音声サービス用。 +- gtts: Google テキスト読み上げサポート。 +- coqui: Coqui TTSエンジンをインストールします。 +- minimal: エンジンなしで基本要件のみをインストール (only needed if you want to develop an own engine)

    +

    ローカルの神経系Coqui TTSでのみRealtimeTTSをインストールしたい場合は、次のようにしてください:

    +
    pip install realtimetts[coqui]
    +
    +

    例えば、Azure Cognitive Services Speech、ElevenLabs、OpenAIのサポートのみでRealtimeTTSをインストールしたい場合:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    仮想環境のインストール

    +

    仮想環境内で完全なインストールを行いたい方は、以下の手順に従ってください。

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.
    +```バット
    +python.exe -m pip install --pipをアップグレード
    +pip install -U realtimetts[all]
    +テキストを翻訳してください: ```
    +
    +[CUDAインストール](#cuda-installation)に関する詳細情報。
    +
    +## エンジン要件
    +
    +RealtimeTTSがサポートする異なるエンジンには、それぞれ独自の要件があります。 選択したエンジンに基づいてこれらの要件を満たすようにしてください。
    +
    +### システムエンジン
    +`SystemEngine`は、システムに内蔵されたTTS機能とそのまま使えます。 追加の設定は必要ありません。
    +
    +### GTTSEngine
    +`GTTSEngine`は、Google翻訳のテキスト読み上げAPIを使用して、すぐに使える状態で動作します。 追加の設定は必要ありません。
    +
    +### OpenAIエンジン
    +`OpenAIEngine`を使用するには:
    +- 環境変数 OPENAI_API_KEY を設定する
    +- ffmpeg をインストールする([CUDA インストール](#cuda-installation)の3番目のポイントを参照)
    +
    +### AzureEngine
    +`AzureEngine`を使用するには、次のものが必要です:
    +- Microsoft Azure Text-to-Speech APIキー(AzureEngineコンストラクタのパラメータ「speech_key」または環境変数AZURE_SPEECH_KEYで提供されます)
    +- マイクロソフトAzureサービスリージョン。
    +
    +`AzureEngine`を初期化する際に、これらの資格情報が利用可能で正しく設定されていることを確認してください。
    +
    +### ElevenlabsEngine
    +`ElevenlabsEngine`には、次のものが必要です:
    +- Elevenlabs APIキー(ElevenlabsEngineコンストラクタのパラメータ「api_key」または環境変数ELEVENLABS_API_KEYで提供されます)
    +- システムに`mpv`がインストールされています (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).
    +
    +  🔹 **`mpv`のインストール:**
    +  - **macOS**:
    +    ```plaintext
    +brew install mpv
    +
    +
      +
    • LinuxおよびWindows: インストール手順についてはmpv.ioをご覧ください。
    • +
    +

    CoquiEngine

    +

    高品質でローカルなニューラルTTSをボイスクローン機能付きで提供します。

    +

    まず、ニューラルTTSモデルをダウンロードします。 ほとんどの場合、GPU合成を使用すればリアルタイムで十分な速度になります。 約4〜5GBのVRAMが必要です。

    +
      +
    • 声をクローンするには、ソース音声を含むWAVファイルのファイル名を「voice」パラメータとしてCoquiEngineコンストラクタに提出してください。
    • +
    • 声のクローンは、短い(約5〜30秒)サンプルを含む22050 Hzモノ16ビットWAVファイルで最も効果的です。
    • +
    +

    ほとんどのシステムでは、リアルタイムで十分な速度を出すためにGPUサポートが必要です。さもなければ、カクつきが発生します。

    +

    CUDAのインストール

    +

    これらの手順は、より良いパフォーマンスを必要とし、互換性のあるNVIDIA GPUを持っている方に推奨されます。

    +
    +

    注意: お使いのNVIDIA GPUがCUDAをサポートしているか確認するには、公式CUDA GPUリストをご覧ください。

    +
    +

    CUDAをサポートするTorchを使用するには、次の手順に従ってください。

    +
    +

    注意: 新しいPyTorchのインストールでは、かもしれない(未確認)がToolkit(およびおそらくcuDNN)のインストールを必要としないかもしれません。

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkitをインストールする: + 例えば、Toolkit 12.Xをインストールするには、

      +
        +
      • NVIDIA CUDA Downloadsを訪れてください。
      • +
      • オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。
      • +
      +

      または、Toolkit 11.8をインストールするには、 +- NVIDIA CUDA Toolkit Archiveをご覧ください。 +- オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    2. +
    3. +

      NVIDIA cuDNNをインストールする:

      +

      例えば、CUDA 11.x用のcuDNN 8.7.0をインストールするには、次の手順を行ってください。 +- NVIDIA cuDNNアーカイブを訪問してください。 +「Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x」をクリックしてください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    4. +
    5. +

      ffmpegをインストールする:

      +

      ffmpegウェブサイトからお使いのOS用のインストーラーをダウンロードできます。

      +

      またはパッケージマネージャーを使用してください:

      +
        +
      • +

        UbuntuまたはDebianの場合: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linuxで: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrewを使用してMacOSで (https://brew.sh/): + ```plaintext +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolateyを使用してWindowsで** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **Scoopを使用してWindowsで** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    scoop install ffmpeg
    +
    +
    
    +4. **CUDAサポート付きのPyTorchをインストールする**:
    +
    +    CUDAでGPUサポートを有効にするためにPyTorchのインストールをアップグレードするには、特定のCUDAバージョンに基づいてこれらの指示に従ってください。 これは、CUDA機能を使用してRealtimeSTTのパフォーマンスを向上させたい場合に役立ちます。
    +
    +    - **CUDA 11.8の場合:**
    +
    +        PyTorchとTorchaudioをCUDA 11.8に対応させるために、次のコマンドを使用してください。
    +
    +        ```plaintext
    +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        テキストを翻訳する: ```
    +
    +- **CUDA 12.Xの場合:**
    +
    +
    +    PyTorchとTorchaudioをCUDA 12.Xに対応させるために、次のコマンドを実行してください。
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +テキストを翻訳する:

    +
    `2.3.1` をあなたのシステムと要件に合ったPyTorchのバージョンに置き換えてください。
    +
    +
      +
    1. 互換性の問題を解決するための修正: + ライブラリの互換性の問題が発生した場合は、これらのライブラリを固定バージョンに設定してみてください。
    2. +
    +

    テキストを翻訳する: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/it/api/index.html b/ja/it/api/index.html new file mode 100755 index 0000000..e5f2d96 --- /dev/null +++ b/ja/it/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Italiano

    + +

    Configurazione

    +

    Parametri di Inizializzazione per TextToAudioStream

    +

    Quando si inizializza la classe TextToAudioStream, sono disponibili diverse opzioni per personalizzare il suo comportamento. Ecco i parametri disponibili:

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Obbligatorio: Sì
    • +
    • Descrizione: Il motore sottostante responsabile della sintesi da testo ad audio. È necessario fornire un'istanza di BaseEngine o della sua sottoclasse per abilitare la sintesi audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando inizia lo stream di testo. Utilizzala per qualsiasi configurazione o registrazione necessaria.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando termina lo stream di testo. Puoi utilizzarla per attività di pulizia o registrazione.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene invocata quando inizia lo stream audio. Utile per aggiornamenti dell'interfaccia utente o registrazione eventi.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando lo stream audio si ferma. Ideale per la pulizia delle risorse o attività di post-elaborazione.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando viene elaborato un singolo carattere.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: None
    • +
    • Descrizione: Specifica l'indice del dispositivo di output da utilizzare. None usa il dispositivo predefinito.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: nltk
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi (attualmente sono supportati "nltk" e "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: en
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Obbligatorio: No
    • +
    • Predefinito: False
    • +
    • Descrizione: Parametro globale di silenziamento. Se True, non verrà aperto alcuno stream pyAudio. Disabilita la riproduzione audio attraverso gli altoparlanti locali (nel caso in cui si desideri sintetizzare su file o elaborare chunk audio) e sovrascrive l'impostazione muted dei parametri di riproduzione.
    • +
    +

    level (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: logging.WARNING
    • +
    • Descrizione: Imposta il livello di logging per il logger interno. Può essere qualsiasi costante intera dal modulo logging integrato di Python.
    • +
    +

    Esempio di Utilizzo:

    +
    engine = YourEngine()  # Sostituire con il proprio motore
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Metodi

    +

    play e play_async

    +

    Questi metodi sono responsabili dell'esecuzione della sintesi testo-audio e della riproduzione dello stream audio. La differenza è che play è una funzione bloccante, mentre play_async viene eseguito in un thread separato, permettendo ad altre operazioni di procedere.

    +
    Parametri:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Quando impostato su True, il metodo darà priorità alla velocità, generando e riproducendo i frammenti di frase più rapidamente. Questo è utile per applicazioni dove la latenza è importante.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, applica l'elaborazione rapida dei frammenti di frase a tutte le frasi, non solo alla prima.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, permette di produrre più frammenti di frase invece di uno solo.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Predefinito: 0.0
    • +
    • +

      Descrizione: Specifica il tempo in secondi per la soglia di buffering, che influenza la fluidità e la continuità della riproduzione audio.

      +
    • +
    • +

      Come Funziona: Prima di sintetizzare una nuova frase, il sistema controlla se nel buffer rimane più materiale audio del tempo specificato da buffer_threshold_seconds. In caso affermativo, recupera un'altra frase dal generatore di testo, assumendo che possa recuperare e sintetizzare questa nuova frase entro la finestra temporale fornita dall'audio rimanente nel buffer. Questo processo consente al motore di sintesi vocale di avere più contesto per una migliore sintesi, migliorando l'esperienza utente.

      +
    • +
    +

    Un valore più alto assicura che ci sia più audio pre-bufferizzato, riducendo la probabilità di silenzi o interruzioni durante la riproduzione. Se si verificano interruzioni o pause, considera di aumentare questo valore.

    +
    minimum_sentence_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Imposta la lunghezza minima in caratteri per considerare una stringa come una frase da sintetizzare. Questo influisce su come vengono elaborati e riprodotti i chunk di testo.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Il numero minimo di caratteri richiesti per il primo frammento di frase prima della produzione.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando abilitato, registra i chunk di testo mentre vengono sintetizzati in audio. Utile per il controllo e il debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Se True, reimposta il testo generato prima dell'elaborazione.
    • +
    +
    output_wavfile (str)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Se impostato, salva l'audio nel file WAV specificato.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata dopo che un singolo frammento di frase è stato sintetizzato.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata prima che un singolo frammento di frase venga sintetizzato.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Funzione di callback che viene chiamata quando un singolo chunk audio è pronto.
    • +
    +
    tokenizer (str)
    +
      +
    • Predefinito: "nltk"
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi. Attualmente supporta "nltk" e "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione personalizzata che tokenizza le frasi dal testo di input. Puoi fornire il tuo tokenizer leggero se non sei soddisfatto di nltk e stanza. Dovrebbe prendere il testo come stringa e restituire le frasi divise come lista di stringhe.
    • +
    +
    language (str)
    +
      +
    • Predefinito: "en"
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +
    context_size (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Il numero di caratteri utilizzati per stabilire il contesto per il rilevamento dei confini della frase. Un contesto più ampio migliora la precisione nel rilevare i confini delle frasi.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Dimensione del contesto aggiuntiva per guardare avanti durante il rilevamento dei confini delle frasi.
    • +
    +
    muted (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Se True, disabilita la riproduzione audio attraverso gli altoparlanti locali. Utile quando si desidera sintetizzare su file o elaborare chunk audio senza riprodurli.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Predefinito: ".?!;:,\n…)]}。-"
    • +
    • Descrizione: Una stringa di caratteri che sono considerati delimitatori di frase.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Predefinito: 15
    • +
    • Descrizione: Il numero di parole dopo il quale viene forzata la produzione del primo frammento di frase.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/it/contributing/index.html b/ja/it/contributing/index.html new file mode 100755 index 0000000..b38d279 --- /dev/null +++ b/ja/it/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuire a RealtimeTTS

    +

    Accogliamo con favore i contributi a RealtimeTTS! Ecco alcuni modi in cui puoi contribuire:

    +
      +
    1. +

      Segnalazione di bug: Se trovi un bug, apri un problema sul nostro repository GitHub.

      +
    2. +
    3. +

      Suggerendo Miglioramenti: Hai idee per nuove funzionalità o miglioramenti? Ci piacerebbe sentirli! Apri un problema per suggerire miglioramenti.

      +
    4. +
    5. +

      Contributi del codice: vuoi aggiungere una nuova funzionalità o correggere un bug? Grande! Si prega di seguire questi passaggi:

      +
    6. +
    7. Forchetta il repository
    8. +
    9. Crea un nuovo ramo per la tua funzione
    10. +
    11. Apporta le tue modifiche
    12. +
    13. +

      Invia una richiesta pull con una chiara descrizione delle modifiche

      +
    14. +
    15. +

      Documentazione: aiutaci a migliorare la nostra documentazione correggendo errori di battitura, aggiungendo esempi o chiarendo sezioni confuse.

      +
    16. +
    17. +

      Aggiunta di nuovi motori: se si desidera aggiungere il supporto per un nuovo motore TTS, aprire prima un problema per discutere l'implementazione.

      +
    18. +
    +

    Grazie per aver contribuito a rendere RealtimeTTS migliore!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/it/faq/index.html b/ja/it/faq/index.html new file mode 100755 index 0000000..5f7687f --- /dev/null +++ b/ja/it/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Domande frequenti

    +

    Per le risposte alle domande più frequenti su RealtimeTTS, fare riferimento alla nostra [pagina FAQ su GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Questa pagina tratta vari argomenti tra cui

    +
      +
    • Utilizzo di diversi motori TTS
    • +
    • Gestione del testo multilingue
    • +
    • Ottimizzazione delle prestazioni
    • +
    • Risoluzione dei problemi comuni
    • +
    +

    Per informazioni più dettagliate, visitare il link sopra.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/it/index.html b/ja/it/index.html new file mode 100755 index 0000000..7b94db0 --- /dev/null +++ b/ja/it/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Libreria text-to-speech facile da usare e a bassa latenza per applicazioni in tempo reale

    +

    Informazioni sul progetto

    +

    RealtimeTTS è una libreria text-to-speech (TTS) all'avanguardia progettata per applicazioni in tempo reale. Si distingue per la sua capacità di convertire rapidamente i flussi di testo in output uditivo di alta qualità con una latenza minima.

    +

    Caratteristiche principali

    +
      +
    • Bassa latenza: conversione testo-discorso quasi istantanea, compatibile con le uscite LLM
    • +
    • Audio di alta qualità: generi un discorso chiaro e dal suono naturale
    • +
    • Multiplo supporto motore TTS: supportoa OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS e System TTS
    • +
    • Multilingue
    • +
    • Robust and Reliable: assicurazione un divertimento continuo attraverso un meccanismo di ripiego, passa a motori alternativi in caso di interdizioni garantite prestazioni e affidabilità costanti
    • +
    +

    Per istruzioni di installazione, esempi di utilizzo e ritorno API, navigare nella documentazione utilizzando la barra laterale.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/it/installation/index.html b/ja/it/installation/index.html new file mode 100755 index 0000000..c69b313 --- /dev/null +++ b/ja/it/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Italiano

    + +
    +

    Nota: L'installazione base con pip install realtimetts non è più raccomandata, utilizzare invece pip install realtimetts[all].

    +
    +

    La libreria RealtimeTTS fornisce opzioni di installazione per varie dipendenze in base al tuo caso d'uso. Ecco i diversi modi in cui puoi installare RealtimeTTS in base alle tue necessità:

    +

    Installazione Completa

    +

    Per installare RealtimeTTS con supporto per tutti i motori TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Installazione Personalizzata

    +

    RealtimeTTS permette un'installazione personalizzata con installazioni minime delle librerie. Ecco le opzioni disponibili: +- all: Installazione completa con tutti i motori supportati. +- system: Include le capacità TTS specifiche del sistema (es. pyttsx3). +- azure: Aggiunge il supporto Azure Cognitive Services Speech. +- elevenlabs: Include l'integrazione con l'API ElevenLabs. +- openai: Per i servizi vocali OpenAI. +- gtts: Supporto Google Text-to-Speech. +- coqui: Installa il motore Coqui TTS. +- minimal: Installa solo i requisiti base senza motore (necessario solo se si vuole sviluppare un proprio motore)

    +

    Se vuoi installare RealtimeTTS solo per l'uso locale di Coqui TTS neurale, dovresti utilizzare:

    +
    pip install realtimetts[coqui]
    +
    +

    Per esempio, se vuoi installare RealtimeTTS solo con il supporto per Azure Cognitive Services Speech, ElevenLabs e OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installazione in Ambiente Virtuale

    +

    Per chi vuole eseguire un'installazione completa all'interno di un ambiente virtuale, seguire questi passaggi:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Maggiori informazioni sull'installazione CUDA.

    +

    Requisiti dei Motori

    +

    I diversi motori supportati da RealtimeTTS hanno requisiti unici. Assicurati di soddisfare questi requisiti in base al motore che scegli.

    +

    SystemEngine

    +

    Il SystemEngine funziona subito con le capacità TTS integrate nel tuo sistema. Non è necessaria alcuna configurazione aggiuntiva.

    +

    GTTSEngine

    +

    Il GTTSEngine funziona subito utilizzando l'API text-to-speech di Google Translate. Non è necessaria alcuna configurazione aggiuntiva.

    +

    OpenAIEngine

    +

    Per utilizzare OpenAIEngine: +- impostare la variabile d'ambiente OPENAI_API_KEY +- installare ffmpeg (vedi installazione CUDA punto 3)

    +

    AzureEngine

    +

    Per utilizzare AzureEngine, avrai bisogno di: +- Chiave API Microsoft Azure Text-to-Speech (fornita tramite il parametro del costruttore AzureEngine "speech_key" o nella variabile d'ambiente AZURE_SPEECH_KEY) +- Regione del servizio Microsoft Azure.

    +

    Assicurati di avere queste credenziali disponibili e configurate correttamente quando inizializzi AzureEngine.

    +

    ElevenlabsEngine

    +

    Per ElevenlabsEngine, hai bisogno di: +- Chiave API Elevenlabs (fornita tramite il parametro del costruttore ElevenlabsEngine "api_key" o nella variabile d'ambiente ELEVENLABS_API_KEY) +- mpv installato sul tuo sistema (essenziale per lo streaming audio mpeg, Elevenlabs fornisce solo mpeg).

    +

    🔹 Installazione di mpv: + - macOS: + brew install mpv

    +
      +
    • Linux e Windows: Visita mpv.io per le istruzioni di installazione.
    • +
    +

    CoquiEngine

    +

    Fornisce TTS neurale locale di alta qualità con clonazione vocale.

    +

    Scarica prima un modello TTS neurale. Nella maggior parte dei casi sarà abbastanza veloce per il tempo reale utilizzando la sintesi GPU. Richiede circa 4-5 GB di VRAM.

    +
      +
    • per clonare una voce inviare il nome del file di un file wave contenente la voce sorgente come parametro "voice" al costruttore CoquiEngine
    • +
    • la clonazione vocale funziona meglio con un file WAV mono 16bit a 22050 Hz contenente un breve campione (circa 5-30 sec)
    • +
    +

    Sulla maggior parte dei sistemi sarà necessario il supporto GPU per funzionare abbastanza velocemente per il tempo reale, altrimenti si verificheranno interruzioni.

    +

    Installazione CUDA

    +

    Questi passaggi sono raccomandati per chi richiede migliori prestazioni e ha una GPU NVIDIA compatibile.

    +
    +

    Nota: per verificare se la tua GPU NVIDIA supporta CUDA, visita la lista ufficiale delle GPU CUDA.

    +
    +

    Per utilizzare torch con supporto via CUDA segui questi passaggi:

    +
    +

    Nota: le installazioni più recenti di pytorch potrebbero (non verificato) non necessitare più dell'installazione del Toolkit (e possibilmente cuDNN).

    +
    +
      +
    1. +

      Installa NVIDIA CUDA Toolkit: + Per esempio, per installare il Toolkit 12.X, per favore

      +
        +
      • Visita NVIDIA CUDA Downloads.
      • +
      • Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo.
      • +
      • Scarica e installa il software.
      • +
      +

      o per installare il Toolkit 11.8, per favore +- Visita NVIDIA CUDA Toolkit Archive. +- Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo. +- Scarica e installa il software.

      +
    2. +
    3. +

      Installa NVIDIA cuDNN:

      +

      Per esempio, per installare cuDNN 8.7.0 per CUDA 11.x per favore +- Visita NVIDIA cuDNN Archive. +- Clicca su "Download cuDNN v8.7.0 (28 Novembre 2022), per CUDA 11.x". +- Scarica e installa il software.

      +
    4. +
    5. +

      Installa ffmpeg:

      +

      Puoi scaricare un installer per il tuo sistema operativo dal sito web ffmpeg.

      +

      Oppure usa un gestore pacchetti:

      +
        +
      • +

        Su Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Su Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Su MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Su Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Su Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installa PyTorch con supporto CUDA:

      +

      Per aggiornare la tua installazione PyTorch per abilitare il supporto GPU con CUDA, segui queste istruzioni basate sulla tua versione CUDA specifica. Questo è utile se desideri migliorare le prestazioni di RealtimeSTT con le capacità CUDA.

      +
        +
      • +

        Per CUDA 11.8:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 11.8, usa i seguenti comandi:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Per CUDA 12.X:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 12.X, esegui quanto segue:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Sostituisci 2.3.1 con la versione di PyTorch che corrisponde al tuo sistema e requisiti.

      +
    8. +
    9. +

      Fix per risolvere problemi di compatibilità: + Se riscontri problemi di compatibilità delle librerie, prova a impostare queste librerie a versioni fisse:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/it/usage/index.html b/ja/it/usage/index.html new file mode 100755 index 0000000..419cb7f --- /dev/null +++ b/ja/it/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Utilizzo

    +

    Avvio Rapido

    +

    Ecco un esempio di utilizzo base:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # sostituisci con il tuo motore TTS
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Inserimento del Testo

    +

    Puoi inserire singole stringhe:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oppure puoi inserire generatori e iteratori di caratteri per lo streaming in tempo reale:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Riproduzione

    +

    In modo asincrono:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    In modo sincrono:

    +
    stream.play()
    +
    +

    Test della Libreria

    +

    La sottodirectory test contiene una serie di script per aiutarti a valutare e comprendere le capacità della libreria RealtimeTTS.

    +

    Nota che la maggior parte dei test si basa ancora sulla "vecchia" API OpenAI (<1.0.0). L'utilizzo della nuova API OpenAI è dimostrato in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descrizione: Una dimostrazione stile "hello world" dell'utilizzo più semplice della libreria.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descrizione: Una dimostrazione completa che mostra la maggior parte delle funzionalità fornite dalla libreria.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descrizione: Test del motore TTS coqui locale.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Traduzioni in tempo reale in sei lingue diverse.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Interfaccia utente vocale attivata da parola chiave per l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dipendenze: Esegui pip install openai keyboard realtimestt.
      • +
      • Descrizione: Scegli il motore TTS e la voce prima di iniziare la conversazione con l'IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Un talkbot base in 20 righe di codice.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Semplice dimostrazione di come integrare la libreria con i modelli linguistici di grandi dimensioni (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Mostra i callback e ti permette di verificare i tempi di latenza in un ambiente applicativo reale.
      • +
      +
    • +
    +

    Pausa, Ripresa e Stop

    +

    Metti in pausa lo stream audio:

    +
    stream.pause()
    +
    +

    Riprendi uno stream in pausa:

    +
    stream.resume()
    +
    +

    Ferma immediatamente lo stream:

    +
    stream.stop()
    +
    +

    Requisiti Spiegati

    +
      +
    • Versione Python:
    • +
    • Richiesto: Python >= 3.9, < 3.13
    • +
    • +

      Motivo: La libreria dipende dalla libreria GitHub "TTS" di coqui, che richiede versioni Python in questo intervallo.

      +
    • +
    • +

      PyAudio: per creare uno stream audio di output

      +
    • +
    • +

      stream2sentence: per dividere il flusso di testo in ingresso in frasi

      +
    • +
    • +

      pyttsx3: Motore di conversione text-to-speech di sistema

      +
    • +
    • +

      pydub: per convertire i formati dei chunk audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motore di conversione text-to-speech di Azure

      +
    • +
    • +

      elevenlabs: Motore di conversione text-to-speech di Elevenlabs

      +
    • +
    • +

      coqui-TTS: Libreria text-to-speech XTTS di Coqui per TTS neurale locale di alta qualità

      +
    • +
    +

    Un ringraziamento speciale a Idiap Research Institute per il mantenimento di un fork di coqui tts.

    +
      +
    • +

      openai: per interagire con l'API TTS di OpenAI

      +
    • +
    • +

      gtts: Conversione text-to-speech di Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ja/api/index.html b/ja/ja/api/index.html new file mode 100755 index 0000000..af18dc2 --- /dev/null +++ b/ja/ja/api/index.html @@ -0,0 +1,2814 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    日本語

    + +

    設定

    +

    TextToAudioStreamの初期化パラメータ

    +

    TextToAudioStreamクラスを初期化する際、その動作をカスタマイズするための様々なオプションがあります。利用可能なパラメータは以下の通りです:

    +

    engine (BaseEngine)

    +
      +
    • : BaseEngine
    • +
    • 必須: はい
    • +
    • 説明: テキストから音声への合成を担当する基盤エンジンです。音声合成を有効にするには、BaseEngineまたはそのサブクラスのインスタンスを提供する必要があります。
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが開始されたときにトリガーされるオプションのコールバック関数です。セットアップやログ記録に使用できます。
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが終了したときに実行されるオプションのコールバック関数です。クリーンアップタスクやログ記録に使用できます。
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが開始されたときに呼び出されるオプションのコールバック関数です。UIの更新やイベントログに役立ちます。
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが停止したときに呼び出されるオプションのコールバック関数です。リソースのクリーンアップや後処理タスクに最適です。
    • +
    +

    on_character (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 一文字が処理されるたびに呼び出されるオプションのコールバック関数です。
    • +
    +

    output_device_index (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: None
    • +
    • 説明: 使用する出力デバイスのインデックスを指定します。Noneの場合はデフォルトデバイスを使用します。
    • +
    +

    tokenizer (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: nltk
    • +
    • 説明: 文分割に使用するトークナイザー(現在は"nltk"と"stanza"がサポートされています)。
    • +
    +

    language (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: en
    • +
    • 説明: 文分割に使用する言語。
    • +
    +

    muted (bool)

    +
      +
    • : 真偽値
    • +
    • 必須: いいえ
    • +
    • デフォルト値: False
    • +
    • 説明: グローバルなミュートパラメータ。Trueの場合、pyAudioストリームは開かれません。ローカルスピーカーを介した音声再生を無効にし(ファイルへの合成や音声チャンクの処理を行う場合)、playパラメータのミュート設定を上書きします。
    • +
    +

    level (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: logging.WARNING
    • +
    • 説明: 内部ロガーのログレベルを設定します。Pythonの組み込みloggingモジュールの任意の整数定数を使用できます。
    • +
    +

    使用例:

    +
    engine = YourEngine()  # あなたのエンジンで置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +```python
    +engine = YourEngine()  # あなたのエンジンに置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    メソッド

    +

    playplay_async

    +

    これらのメソッドはテキストから音声への合成と音声ストリームの再生を担当します。playはブロッキング関数である一方、play_asyncは別のスレッドで実行され、他の操作を続行できるという違いがあります。

    +
    パラメータ:
    +
    fast_sentence_fragment (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueに設定すると、文章の断片をより速く生成して再生することを優先します。レイテンシーが重要なアプリケーションに有用です。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、最初の文だけでなく、すべての文に対して高速な文章断片処理を適用します。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、単一の文章断片ではなく、複数の文章断片を生成することができます。
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • デフォルト値: 0.0
    • +
    • +

      説明: 音声再生の滑らかさと連続性に影響を与えるバッファリングのしきい値を秒単位で指定します。

      +
    • +
    • +

      動作原理: 新しい文を合成する前に、システムはバッファにbuffer_threshold_secondsで指定された時間以上の音声材料が残っているかチェックします。残っている場合、テキストジェネレータから別の文を取得します。これは、バッファに残っている音声の時間枠内で新しい文を取得して合成できると仮定しています。このプロセスにより、テキスト音声変換エンジンがより良い合成のためのコンテキストを持つことができ、ユーザー体験を向上させます。

      +
    • +
    +

    より高い値を設定すると、より多くの音声がプリバッファされ、再生中の無音や隙間が発生する可能性が減少します。途切れや一時停止が発生する場合は、この値を増やすことを検討してください。

    +
    minimum_sentence_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 合成する文として扱う文字列の最小文字数を設定します。これはテキストチャンクの処理と再生方法に影響します。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 最初の文章断片を生成する前に必要な最小文字数です。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: 有効にすると、音声に合成されるテキストチャンクをログに記録します。監査やデバッグに役立ちます。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueの場合、処理前に生成されたテキストをリセットします。
    • +
    +
    output_wavfile (str)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 設定すると、指定されたWAVファイルに音声を保存します。
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成された後に呼び出されるコールバック関数です。
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成される前に呼び出されるコールバック関数です。
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の音声チャンクが準備できたときに呼び出されるコールバック関数です。
    • +
    +
    tokenizer (str)
    +
      +
    • デフォルト値: "nltk"
    • +
    • 説明: 文分割に使用するトークナイザーです。現在は"nltk"と"stanza"をサポートしています。
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 入力テキストから文を分割するカスタム関数です。nltkやstanzaに満足できない場合、独自の軽量トークナイザーを提供できます。テキストを文字列として受け取り、分割された文を文字列のリストとして返す必要があります。
    • +
    +
    language (str)
    +
      +
    • デフォルト値: "en"
    • +
    • 説明: 文分割に使用する言語です。
    • +
    +
    context_size (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界検出のために使用される文字数です。より大きなコンテキストは文境界の検出精度を向上させます。
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界を検出する際の先読みのための追加のコンテキストサイズです。
    • +
    +
    muted (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueの場合、ローカルスピーカーを介した音声再生を無効にします。ファイルに合成したり、音声チャンクを再生せずに処理したりする場合に有用です。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • デフォルト値: ".?!;:,\n…)]}。-"
    • +
    • 説明: 文の区切り文字として扱われる文字の文字列です。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • デフォルト値: 15
    • +
    • 説明: 最初の文章断片を生成する必要がある単語数です。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ja/contributing/index.html b/ja/ja/contributing/index.html new file mode 100755 index 0000000..8641921 --- /dev/null +++ b/ja/ja/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTSへの貢献

    +

    RealtimeTTSへの貢献を歓迎します! ここにあなたが貢献できるいくつかの方法があります:

    +
      +
    1. +

      バグの報告: バグを見つけた場合は、GitHubリポジトリにイシューを開いてください。

      +
    2. +
    3. +

      改善提案: 新機能や改善のアイデアはありますか? ぜひお聞かせください! 改善提案のために問題を開いてください。

      +
    4. +
    5. +

      コードの貢献: 新しい機能を追加したり、バグを修正したりしたいですか? すごい! これらの手順に従ってください。

      +
    6. +
    7. リポジトリをフォークする
    8. +
    9. 機能のための新しいブランチを作成する
    10. +
    11. 変更を加える
    12. +
    13. +

      変更内容を明確に説明したプルリクエストを提出してください

      +
    14. +
    15. +

      ドキュメント: タイポを修正したり、例を追加したり、わかりにくい部分を明確にすることで、私たちのドキュメントを改善する手助けをしてください。

      +
    16. +
    17. +

      新しいエンジンの追加: 新しいTTSエンジンのサポートを追加したい場合は、まず実装について議論するためにイシューを開いてください。

      +
    18. +
    +

    RealtimeTTSをより良くするために協力していただきありがとうございます!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ja/faq/index.html b/ja/ja/faq/index.html new file mode 100755 index 0000000..59b2fb7 --- /dev/null +++ b/ja/ja/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    よくある質問

    +

    RealtimeTTSに関するよくある質問の回答については、GitHubのFAQページをご覧ください。

    +

    このページでは、次のようなさまざまなトピックを取り上げています。

    +
      +
    • 異なるTTSエンジンの使用
    • +
    • 多言語テキストの取り扱い
    • +
    • パフォーマンスの最適化
    • +
    • 一般的な問題のトラブルシューティング
    • +
    +

    詳細な情報については、上記のリンクをご覧ください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ja/index.html b/ja/ja/index.html new file mode 100755 index 0000000..386a423 --- /dev/null +++ b/ja/ja/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    リアルタイムTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    リアルタイムアプリケーション向けの使いやすく、低遅延のテキスト読み上げライブラリ

    +

    プロジェクトについて

    +

    RealtimeTTSは、リアルタイムアプリケーション向けに設計された最先端のテキスト読み上げ(TTS)ライブラリです。 それは、テキストストリームを迅速に高品質な音声出力に変換する能力において際立っています。

    +

    主な特徴

    +
      +
    • 低遅延: ほぼ瞬時にテキストを音声に変換し、LLM出力と互換性があります
    • +
    • 高品質な音声: 明瞭で自然な音声を生成します
    • +
    • 複数のTTSエンジンサポート: OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS、System TTSをサポートします
    • +
    • 多言語対応
    • +
    • 堅牢で信頼性が高い: フォールバックメカニズムを通じて継続的な運用を保証し、障害が発生した場合には代替エンジンに切り替えて、一貫したパフォーマンスと信頼性を確保します。
    • +
    +

    インストール手順、使用例、およびAPIリファレンスについては、サイドバーを使用してドキュメントを参照してください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ja/installation/index.html b/ja/ja/installation/index.html new file mode 100755 index 0000000..77c2c5c --- /dev/null +++ b/ja/ja/installation/index.html @@ -0,0 +1,2155 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    日本語

    + +
    +

    注意: pip install realtimetts での基本インストールは推奨されなくなりました。代わりに pip install realtimetts[all] を使用してください。

    +
    +

    RealtimeTTSライブラリは、あなたのユースケースに応じたさまざまな依存関係のインストールオプションを提供します。 ニーズに応じてRealtimeTTSをインストールする方法はいくつかあります:

    +

    フルインストール

    +

    すべてのTTSエンジンに対応したRealtimeTTSをインストールするには:

    +
    pip install -U realtimetts[all]
    +
    +

    カスタムインストール

    +

    RealtimeTTSは、最小限のライブラリインストールでカスタムインストールを可能にします。 こちらが利用可能なオプションです。 +- すべて: すべてのエンジンがサポートされた完全なインストール。 +- システム: システム固有のTTS機能を含む (e.g., pyttsx3). +- azure: Azure Cognitive Services Speechサポートを追加します。 +- elevenlabs: ElevenLabs APIとの統合が含まれています。 +- openai: OpenAIの音声サービス用。 +- gtts: Google テキスト読み上げサポート。 +- coqui: Coqui TTSエンジンをインストールします。 +- minimal: エンジンなしで基本要件のみをインストール (only needed if you want to develop an own engine)

    +

    ローカルの神経系Coqui TTSでのみRealtimeTTSをインストールしたい場合は、次のようにしてください:

    +
    pip install realtimetts[coqui]
    +
    +

    例えば、Azure Cognitive Services Speech、ElevenLabs、OpenAIのサポートのみでRealtimeTTSをインストールしたい場合:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    仮想環境のインストール

    +

    仮想環境内で完全なインストールを行いたい方は、以下の手順に従ってください。

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.
    +```バット
    +python.exe -m pip install --pipをアップグレード
    +pip install -U realtimetts[all]
    +テキストを翻訳してください: ```
    +
    +[CUDAインストール](#cuda-installation)に関する詳細情報。
    +
    +## エンジン要件
    +
    +RealtimeTTSがサポートする異なるエンジンには、それぞれ独自の要件があります。 選択したエンジンに基づいてこれらの要件を満たすようにしてください。
    +
    +### システムエンジン
    +`SystemEngine`は、システムに内蔵されたTTS機能とそのまま使えます。 追加の設定は必要ありません。
    +
    +### GTTSEngine
    +`GTTSEngine`は、Google翻訳のテキスト読み上げAPIを使用して、すぐに使える状態で動作します。 追加の設定は必要ありません。
    +
    +### OpenAIエンジン
    +`OpenAIEngine`を使用するには:
    +- 環境変数 OPENAI_API_KEY を設定する
    +- ffmpeg をインストールする([CUDA インストール](#cuda-installation)の3番目のポイントを参照)
    +
    +### AzureEngine
    +`AzureEngine`を使用するには、次のものが必要です:
    +- Microsoft Azure Text-to-Speech APIキー(AzureEngineコンストラクタのパラメータ「speech_key」または環境変数AZURE_SPEECH_KEYで提供されます)
    +- マイクロソフトAzureサービスリージョン。
    +
    +`AzureEngine`を初期化する際に、これらの資格情報が利用可能で正しく設定されていることを確認してください。
    +
    +### ElevenlabsEngine
    +`ElevenlabsEngine`には、次のものが必要です:
    +- Elevenlabs APIキー(ElevenlabsEngineコンストラクタのパラメータ「api_key」または環境変数ELEVENLABS_API_KEYで提供されます)
    +- システムに`mpv`がインストールされています (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).
    +
    +  🔹 **`mpv`のインストール:**
    +  - **macOS**:
    +    ```plaintext
    +brew install mpv
    +
    +
      +
    • LinuxおよびWindows: インストール手順についてはmpv.ioをご覧ください。
    • +
    +

    CoquiEngine

    +

    高品質でローカルなニューラルTTSをボイスクローン機能付きで提供します。

    +

    まず、ニューラルTTSモデルをダウンロードします。 ほとんどの場合、GPU合成を使用すればリアルタイムで十分な速度になります。 約4〜5GBのVRAMが必要です。

    +
      +
    • 声をクローンするには、ソース音声を含むWAVファイルのファイル名を「voice」パラメータとしてCoquiEngineコンストラクタに提出してください。
    • +
    • 声のクローンは、短い(約5〜30秒)サンプルを含む22050 Hzモノ16ビットWAVファイルで最も効果的です。
    • +
    +

    ほとんどのシステムでは、リアルタイムで十分な速度を出すためにGPUサポートが必要です。さもなければ、カクつきが発生します。

    +

    CUDAのインストール

    +

    これらの手順は、より良いパフォーマンスを必要とし、互換性のあるNVIDIA GPUを持っている方に推奨されます。

    +
    +

    注意: お使いのNVIDIA GPUがCUDAをサポートしているか確認するには、公式CUDA GPUリストをご覧ください。

    +
    +

    CUDAをサポートするTorchを使用するには、次の手順に従ってください。

    +
    +

    注意: 新しいPyTorchのインストールでは、かもしれない(未確認)がToolkit(およびおそらくcuDNN)のインストールを必要としないかもしれません。

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkitをインストールする: + 例えば、Toolkit 12.Xをインストールするには、

      +
        +
      • NVIDIA CUDA Downloadsを訪れてください。
      • +
      • オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。
      • +
      +

      または、Toolkit 11.8をインストールするには、 +- NVIDIA CUDA Toolkit Archiveをご覧ください。 +- オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    2. +
    3. +

      NVIDIA cuDNNをインストールする:

      +

      例えば、CUDA 11.x用のcuDNN 8.7.0をインストールするには、次の手順を行ってください。 +- NVIDIA cuDNNアーカイブを訪問してください。 +「Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x」をクリックしてください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    4. +
    5. +

      ffmpegをインストールする:

      +

      ffmpegウェブサイトからお使いのOS用のインストーラーをダウンロードできます。

      +

      またはパッケージマネージャーを使用してください:

      +
        +
      • +

        UbuntuまたはDebianの場合: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linuxで: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrewを使用してMacOSで (https://brew.sh/): + ```plaintext +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolateyを使用してWindowsで** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **Scoopを使用してWindowsで** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    scoop install ffmpeg
    +
    +
    
    +4. **CUDAサポート付きのPyTorchをインストールする**:
    +
    +    CUDAでGPUサポートを有効にするためにPyTorchのインストールをアップグレードするには、特定のCUDAバージョンに基づいてこれらの指示に従ってください。 これは、CUDA機能を使用してRealtimeSTTのパフォーマンスを向上させたい場合に役立ちます。
    +
    +    - **CUDA 11.8の場合:**
    +
    +        PyTorchとTorchaudioをCUDA 11.8に対応させるために、次のコマンドを使用してください。
    +
    +        ```plaintext
    +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        テキストを翻訳する: ```
    +
    +- **CUDA 12.Xの場合:**
    +
    +
    +    PyTorchとTorchaudioをCUDA 12.Xに対応させるために、次のコマンドを実行してください。
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +テキストを翻訳する:

    +
    `2.3.1` をあなたのシステムと要件に合ったPyTorchのバージョンに置き換えてください。
    +
    +
      +
    1. 互換性の問題を解決するための修正: + ライブラリの互換性の問題が発生した場合は、これらのライブラリを固定バージョンに設定してみてください。
    2. +
    +

    テキストを翻訳する: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ja/usage/index.html b/ja/ja/usage/index.html new file mode 100755 index 0000000..075bc66 --- /dev/null +++ b/ja/ja/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    使用

    +

    クイックスタート

    +

    基本的な使用例は次のとおりです。

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # あなたのTTSエンジンに置き換えてください +ストリーム = TextToAudioStream(engine) +stream.feed("こんにちは、世界!") 今日はどうですか? +stream.play_async()

    +

    フィードテキスト

    +

    個別の文字列を入力できます:

    +
    stream.feed("こんにちは、これは文です。")
    +
    +

    または、リアルタイムストリーミングのためにジェネレーターやキャラクターイテレーターを使用することもできます。

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```チャット完了。作成(
    +        モデル="gpt-3.5-turbo",
    +        メッセージ=[{"役割": "ユーザー", "内容": プロンプト}],
    +        ストリーム=True
    +    ):
    +        もし (text_chunk := chunk["choices"]テキストを翻訳してください。["デルタ"].get("content")) は None ではない:
    +            テキストチャンクを生成
    +
    +テキストストリーム = 書き込み("A three-sentence relaxing speech.")
    +
    +ストリームにテキストストリームをフィードする
    +
    +```python
    +char_iterator = iter("文字を1文字ずつストリーミングします。")
    +stream.feed(char_iterator)
    +
    +

    再生

    +

    非同期で:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同時に:

    +
    stream.play()
    +
    +

    ライブラリのテスト

    +

    テストサブディレクトリには、RealtimeTTSライブラリの機能を評価し理解するための一連のスクリプトが含まれています。

    +

    ほとんどのテストはまだ「古い」OpenAI API(<1.0.0)に依存していることに注意してください。 新しいOpenAI APIの使用方法はopenai_1.0_test.pyで示されています。

    +
      +
    • +

      simple_test.py

      +
        +
      • 説明: ライブラリの最も簡単な使い方を示す「ハローワールド」スタイルのデモ。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 説明: ライブラリが提供するほとんどの機能を紹介する包括的なデモ。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 説明: ローカルのcoqui TTSエンジンのテスト。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 6つの異なる言語へのリアルタイム翻訳。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依存関係: pip install openai realtimestt を実行してください。
      • +
      • 説明: ウェイクワードがアクティブになり、OpenAI APIへの音声ベースのユーザーインターフェース。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依存関係: pip install openai keyboard realtimesttを実行してください。
      • +
      • 説明: AI会話を始める前に、TTSエンジンと声を選択してください。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 20行のコードで作る基本的なトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: ライブラリを大規模言語モデルに統合する簡単なデモ (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: コールバックを紹介し、実際のアプリケーション環境でレイテンシー時間を確認できるようにします。
      • +
      +
    • +
    +

    一時停止、再開、停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止中のストリームを再開する:

    +
    stream.resume()
    +
    +

    すぐに配信を停止してください。

    +
    stream.stop()
    +
    +

    要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必要条件: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリは、coquiのGitHubライブラリ「TTS」に依存しており、これにはこの範囲のPythonバージョンが必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するために

      +
    • +
    • +

      stream2sentence: 入力されたテキストストリームを文に分割する

      +
    • +
    • +

      pyttsx3: システム音声合成エンジン

      +
    • +
    • +

      pydub: オーディオチャンクのフォーマットを変換するために

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure テキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabs テキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTSのためのCoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap Research Institutecoqui ttsのフォークを維持していることに感謝します。

    +
      +
    • +

      openai: OpenAIのTTS APIと対話するために

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ko/api/index.html b/ja/ko/api/index.html new file mode 100755 index 0000000..17cc3b4 --- /dev/null +++ b/ja/ko/api/index.html @@ -0,0 +1,2792 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    한국어

    + +

    구성

    +

    TextToAudioStream 초기화 매개변수

    +

    TextToAudioStream 클래스를 초기화할 때, 그 동작을 사용자 정의할 수 있는 다양한 옵션이 있습니다. 사용 가능한 매개변수는 다음과 같습니다:

    +

    engine (BaseEngine)

    +
      +
    • 유형: BaseEngine
    • +
    • 필수: 네 텍스트를 오디오로 변환하는 데 책임이 있는 기본 엔진. 오디오 합성을 활성화하려면 BaseEngine 또는 그 하위 클래스의 인스턴스를 제공해야 합니다.
    • +
    +

    on_text_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 시작될 때 호출됩니다. 필요한 설정이나 로깅에 사용하세요.
    • +
    +

    on_text_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 끝날 때 활성화됩니다. 이것을 정리 작업이나 로깅에 사용할 수 있습니다.
    • +
    +

    on_audio_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 시작될 때 호출됩니다. UI 업데이트나 이벤트 로깅에 유용합니다.
    • +
    +

    on_audio_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 중지될 때 호출됩니다. 리소스 정리나 후처리 작업에 적합합니다.
    • +
    +

    on_character (callable)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 단일 문자가 처리될 때 호출됩니다.
    • +
    +

    output_device_index (int)

    +
      +
    • 유형: 정수
    • +
    • 필수: 아니요 사용할 출력 장치 인덱스를 지정합니다. 아무도 기본 장치를 사용하지 않습니다.
    • +
    +

    tokenizer (string)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요
    • +
    • 기본값: nltk
    • +
    • 설명: 문장 분할에 사용할 토크나이저 (currently "nltk" and "stanza" are supported).
    • +
    +

    language (문자열)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요 문장 분할에 사용할 언어.
    • +
    +

    muted (bool)

    +
      +
    • 유형: Bool
    • +
    • 필수: 아니오
    • +
    • 기본값: False
    • +
    • 설명: 전역 음소거 매개변수. 참이면, pyAudio 스트림이 열리지 않습니다. 로컬 스피커를 통한 오디오 재생을 비활성화합니다 (파일로 합성하거나 오디오 청크를 처리하려는 경우) 및 재생 매개변수의 음소거 설정을 무시합니다.
    • +
    +

    level (int)

    +
      +
    • Type: 정수
    • +
    • Required: 아니요
    • +
    • 기본값: logging.WARNING
    • +
    • 설명: 내부 로거의 로깅 수준을 설정합니다. 이는 Python의 내장 logging 모듈에서 제공하는 정수 상수일 수 있습니다.
    • +
    +

    예시 사용법:

    +
    engine = YourEngine()  # 엔진을 당신의 엔진으로 대체하세요
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    방법

    +

    playplay_async

    +

    이 방법들은 텍스트-오디오 합성을 실행하고 오디오 스트림을 재생하는 역할을 합니다. 차이점은 play가 블로킹 함수인 반면, play_async는 별도의 스레드에서 실행되어 다른 작업이 진행될 수 있다는 것입니다.

    +
    매개변수:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: True로 설정하면, 이 방법은 속도를 우선시하여 문장 조각을 더 빨리 생성하고 재생합니다. 이는 지연 시간이 중요한 애플리케이션에 유용합니다.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 첫 번째 문장뿐만 아니라 모든 문장에 대해 빠른 문장 조각 처리를 적용합니다.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 단일 문장 조각 대신 여러 문장 조각을 생성할 수 있습니다.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • 기본값: 0.0
    • +
    • +

      설명: 버퍼링 임계값을 초 단위로 지정하며, 이는 오디오 재생의 부드러움과 연속성에 영향을 미칩니다.

      +
    • +
    • +

      작동 방식: 새로운 문장을 합성하기 전에 시스템은 버퍼에 남아 있는 오디오 자료가 buffer_threshold_seconds로 지정된 시간보다 더 많은지 확인합니다. 그렇다면, 텍스트 생성기에서 또 다른 문장을 가져오는데, 이는 버퍼에 남아 있는 오디오의 시간 창 내에서 이 새로운 문장을 가져오고 합성할 수 있다고 가정합니다. 이 과정은 텍스트 음성 변환 엔진이 더 나은 합성을 위해 더 많은 맥락을 갖도록 하여 사용자 경험을 향상시킵니다.

      +
    • +
    +

    더 높은 값은 더 많은 미리 버퍼링된 오디오를 보장하여 재생 중 침묵이나 간격이 발생할 가능성을 줄여줍니다. 중단이나 일시 정지가 발생하면 이 값을 늘려보세요.

    +
    minimum_sentence_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 문자열을 합성할 문장으로 간주하기 위한 최소 문자 길이를 설정합니다. 이것은 텍스트 청크가 처리되고 재생되는 방식에 영향을 미칩니다.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 양보하기 전에 첫 번째 문장 조각에 필요한 최소 문자 수.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 활성화되면, 텍스트 조각이 오디오로 합성될 때 로그를 기록합니다. 감사 및 디버깅에 유용합니다.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: 참이면, 처리하기 전에 생성된 텍스트를 재설정하세요.
    • +
    +
    output_wavfile (str)
    +
      +
    • 기본값: None
    • +
    • 설명: 설정된 경우, 오디오를 지정된 WAV 파일로 저장합니다.
    • +
    +
    on_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 문장 조각이 합성된 후 호출되는 콜백 함수.
    • +
    +
    before_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: 없음
    • +
    • 설명: 단일 문장 조각이 합성되기 전에 호출되는 콜백 함수.
    • +
    +
    on_audio_chunk (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 오디오 청크가 준비되면 호출되는 콜백 함수.
    • +
    +
    tokenizer (str)
    +
      +
    • 기본값: "nltk"
    • +
    • 설명: 문장 분리를 위한 토크나이저. 현재 "nltk"와 "stanza"를 지원합니다.
    • +
    +
    tokenize_sentences (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 입력 텍스트에서 문장을 토큰화하는 사용자 정의 함수. nltk와 stanza에 만족하지 않으면 자신만의 경량 토크나이저를 제공할 수 있습니다. 텍스트를 문자열로 받아서 문장으로 나눈 후 문자열 목록으로 반환해야 합니다.
    • +
    +
    language (str)
    +
      +
    • 기본값: "en"
    • +
    • 설명: 문장 분할에 사용할 언어.
    • +
    +
    context_size (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계 감지를 위한 컨텍스트를 설정하는 데 사용되는 문자 수. 더 넓은 맥락이 문장 경계를 감지하는 정확성을 높입니다.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계를 감지할 때 미리 보기 위한 추가 컨텍스트 크기.
    • +
    +
    muted (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 참이면, 로컬 스피커를 통한 오디오 재생을 비활성화합니다. 파일로 합성하거나 오디오 청크를 재생하지 않고 처리할 때 유용합니다.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 기본값: ".?!;:,\n…)]}。-" 문장 구분자로 간주되는 문자 문자열.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 기본값: 15
    • +
    • 설명: 첫 번째 문장 조각이 강제로 생성되는 단어 수.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ko/contributing/index.html b/ja/ko/contributing/index.html new file mode 100755 index 0000000..3e308b1 --- /dev/null +++ b/ja/ko/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS에 기여하기

    +

    RealtimeTTS에 기여해 주시면 환영합니다! 여기 당신이 기여할 수 있는 몇 가지 방법이 있습니다:

    +
      +
    1. +

      버그 신고: 버그를 발견하셨다면, 저희 GitHub 저장소에 이슈를 열어주세요.

      +
    2. +
    3. +

      개선 사항 제안하기: 새로운 기능이나 개선 사항에 대한 아이디어가 있나요? 우리는 그것들을 듣고 싶어요! 개선 사항을 제안하기 위해 이슈를 열어주세요.

      +
    4. +
    5. +

      코드 기여: 새로운 기능을 추가하거나 버그를 수정하고 싶으신가요? 대단해! 다음 단계를 따라주세요:

      +
    6. +
    7. 저장소를 포크하세요
    8. +
    9. 기능을 위한 새로운 브랜치를 만드세요
    10. +
    11. +

      변경 사항을 적용하세요 + 변경 사항에 대한 명확한 설명과 함께 풀 리퀘스트를 제출하세요.

      +
    12. +
    13. +

      문서화: 오타를 수정하거나 예제를 추가하거나 혼란스러운 부분을 명확히 하여 문서화를 개선하는 데 도움을 주세요.

      +
    14. +
    15. +

      새 엔진 추가하기: 새로운 TTS 엔진을 추가하고 싶다면, 먼저 구현에 대해 논의하기 위해 이슈를 열어주세요.

      +
    16. +
    +

    RealtimeTTS를 더 좋게 만드는 데 도움을 주셔서 감사합니다!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ko/faq/index.html b/ja/ko/faq/index.html new file mode 100755 index 0000000..ca3b6d4 --- /dev/null +++ b/ja/ko/faq/index.html @@ -0,0 +1,1856 @@ + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    자주 묻는 질문

    +

    RealtimeTTS에 대한 자주 묻는 질문에 대한 답변은 GitHub의 FAQ 페이지를 참조해 주세요.

    +

    이 페이지는 다음과 같은 다양한 주제를 다룹니다:

    +
      +
    • 다양한 TTS 엔진의 사용
    • +
    • 다국어 텍스트 처리
    • +
    • 성능 최적화
    • +
    • 일반적인 문제 해결
    • +
    +

    자세한 정보는 위의 링크를 방문해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ko/index.html b/ja/ko/index.html new file mode 100755 index 0000000..c55cff9 --- /dev/null +++ b/ja/ko/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    실시간TTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    실시간 애플리케이션을 위한 사용하기 쉽고 저지연 텍스트 음성 변환 라이브러리

    +

    프로젝트 소개

    +

    RealtimeTTS는 실시간 애플리케이션을 위해 설계된 최첨단 텍스트 음성 변환(TTS) 라이브러리입니다. 텍스트 스트림을 빠르게 고품질의 오디오 출력으로 변환하는 능력에서 두드러집니다.

    +

    주요 특징

    +
      +
    • 저지연: 거의 즉각적인 텍스트 음성 변환, LLM 출력과 호환 가능
    • +
    • 고품질 오디오: 명확하고 자연스러운 음성을 생성합니다.
    • +
    • 다양한 TTS 엔진 지원: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS 및 System TTS를 지원합니다.
    • +
    • 다국어 지원
    • +
    • 견고하고 신뢰할 수 있음: 백업 메커니즘을 통해 지속적인 운영을 보장하며, 중단 시 대체 엔진으로 전환하여 일관된 성능과 신뢰성을 보장합니다.
    • +
    +

    설치 지침, 사용 예제 및 API 참조를 보려면 사이드바를 사용하여 문서를 탐색해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ko/installation/index.html b/ja/ko/installation/index.html new file mode 100755 index 0000000..6c25ad4 --- /dev/null +++ b/ja/ko/installation/index.html @@ -0,0 +1,2267 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    한국어

    + +
    +

    참고: 이제 pip install realtimetts로 기본 설치하는 것은 권장되지 않으며, 대신 pip install realtimetts[all]를 사용하세요.

    +
    +

    RealtimeTTS 라이브러리는 사용 사례에 맞는 다양한 종속성 설치 옵션을 제공합니다. 여기 당신의 필요에 따라 RealtimeTTS를 설치할 수 있는 다양한 방법이 있습니다:

    +

    전체 설치

    +

    모든 TTS 엔진을 지원하는 RealtimeTTS를 설치하려면:

    +
    pip install -U realtimetts[all]
    +
    +

    맞춤 설치

    +

    RealtimeTTS는 최소한의 라이브러리 설치로 맞춤 설치를 허용합니다. 다음은 이용 가능한 옵션입니다: +- 모두: 모든 엔진이 지원되는 전체 설치. +- 시스템: 시스템별 TTS 기능 포함 (e.g., pyttsx3). +- azure: Azure Cognitive Services Speech 지원을 추가합니다. +- elevenlabs: ElevenLabs API와의 통합을 포함합니다. +- openai: OpenAI 음성 서비스용. +- gtts: 구글 텍스트 음성 변환 지원. +- coqui: Coqui TTS 엔진을 설치합니다. +- 최소: 엔진 없이 기본 요구 사항만 설치 (only needed if you want to develop an own engine)

    +

    로컬 신경망 Coqui TTS 사용을 위해 RealtimeTTS만 설치하고 싶다고 가정해 보세요, 그러면 다음을 사용해야 합니다:

    +
    pip install realtimetts[coqui]
    +
    +

    예를 들어, Azure Cognitive Services Speech, ElevenLabs, OpenAI 지원만으로 RealtimeTTS를 설치하고 싶다면:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    가상 환경 설치

    +

    가상 환경 내에서 전체 설치를 수행하려는 분들은 다음 단계를 따르세요:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA 설치에 대한 자세한 정보.

    +

    엔진 요구 사항

    +

    RealtimeTTS에서 지원하는 다양한 엔진은 고유한 요구 사항을 가지고 있습니다. 선택한 엔진에 따라 이러한 요구 사항을 충족하도록 하십시오.

    +

    시스템엔진

    +

    SystemEngine은 시스템에 내장된 TTS 기능과 함께 즉시 사용할 수 있습니다. 추가 설정이 필요하지 않습니다.

    +

    GTTSEngine

    +

    GTTSEngine은 Google Translate의 텍스트 음성 변환 API를 사용하여 즉시 작동합니다. 추가 설정이 필요 없습니다.

    +

    오픈AI엔진

    +

    OpenAIEngine을 사용하려면: +- 환경 변수 OPENAI_API_KEY 설정 +- ffmpeg 설치 (참고: CUDA 설치 3번 항목)

    +

    AzureEngine

    +

    AzureEngine을 사용하려면 다음이 필요합니다: +- Microsoft Azure Text-to-Speech API 키 (AzureEngine 생성자 매개변수 "speech_key" 또는 환경 변수 AZURE_SPEECH_KEY를 통해 제공됨) +- 마이크로소프트 애저 서비스 지역.

    +

    AzureEngine을 초기화할 때 이러한 자격 증명이 준비되어 있고 올바르게 구성되어 있는지 확인하세요.

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine을 사용하려면 다음이 필요합니다: +- Elevenlabs API 키 (ElevenlabsEngine 생성자 매개변수 "api_key"를 통해 제공되거나 환경 변수 ELEVENLABS_API_KEY에 설정됨) +- 시스템에 mpv가 설치되어 있습니다. (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 mpv 설치하기: + - macOS: + plaintext + brew install mpv

    +
      +
    • 리눅스와 윈도우: 설치 지침은 mpv.io를 방문하세요.
    • +
    +

    코키엔진

    +

    고품질의 로컬 신경 TTS를 음성 클로닝과 함께 제공합니다.

    +

    먼저 신경 TTS 모델을 다운로드합니다. 대부분의 경우 GPU 합성을 사용하면 실시간으로 충분히 빠를 것입니다. 약 4-5GB의 VRAM이 필요합니다.

    +
      +
    • 음성을 복제하려면 소스 음성이 포함된 WAV 파일의 파일 이름을 "voice" 매개변수로 CoquiEngine 생성자에게 제출하십시오.
    • +
    • 음성 복제는 22050 Hz 모노 16비트 WAV 파일에 짧은 (~5-30초) 샘플이 포함된 경우에 가장 잘 작동합니다.
    • +
    +

    대부분의 시스템에서는 실시간으로 충분히 빠르게 실행하기 위해 GPU 지원이 필요하며, 그렇지 않으면 끊김 현상이 발생할 것입니다.

    +

    CUDA 설치

    +

    이 단계들은 더 나은 성능을 요구하고 호환 가능한 NVIDIA GPU를 가진 분들에게 권장됩니다.

    +
    +

    참고: NVIDIA GPU가 CUDA를 지원하는지 확인하려면 공식 CUDA GPU 목록을 방문하세요.

    +
    +

    CUDA를 통해 지원되는 토치를 사용하려면 다음 단계를 따르세요:

    +
    +

    참고: 최신 pytorch 설치는 여기 (확인되지 않음)에서 Toolkit (및 아마도 cuDNN) 설치가 더 이상 필요하지 않을 수 있습니다.

    +
    +
      +
    1. +

      NVIDIA CUDA 툴킷 설치: + 예를 들어, Toolkit 12.X를 설치하려면

      +
        +
      • NVIDIA CUDA 다운로드를 방문하세요.
      • +
      • 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요.
      • +
      • 소프트웨어를 다운로드하고 설치하세요.
      • +
      +

      또는 Toolkit 11.8을 설치하려면, +- NVIDIA CUDA Toolkit 아카이브를 방문하세요. +- 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    2. +
    3. +

      NVIDIA cuDNN 설치:

      +

      예를 들어, CUDA 11.x에 cuDNN 8.7.0을 설치하려면 +- NVIDIA cuDNN 아카이브를 방문하세요. +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x"를 클릭하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    4. +
    5. +

      ffmpeg 설치:

      +

      ffmpeg 웹사이트에서 운영 체제에 맞는 설치 프로그램을 다운로드할 수 있습니다.

      +

      또는 패키지 관리자를 사용하세요:

      +
        +
      • +

        우분투나 데비안에서: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linux에서: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrew를 사용한 MacOS에서 (https://brew.sh/): + ```bash +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolatey를 사용한 Windows에서** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +        ```
    +
    +    - **Scoop을 사용하여 Windows에서** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```
    +        스쿱 설치 ffmpeg
    +
    +
      +
    1. +

      CUDA 지원으로 PyTorch 설치하기:

      +

      CUDA를 사용하여 GPU 지원을 활성화하려면, 특정 CUDA 버전에 따라 다음 지침을 따르세요. CUDA 기능으로 RealtimeSTT의 성능을 향상시키고자 한다면 유용합니다.

      +
        +
      • +

        CUDA 11.8의 경우:

        +

        PyTorch와 Torchaudio를 CUDA 11.8을 지원하도록 업데이트하려면 다음 명령어를 사용하세요:

        +

        ```bash +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      +
    2. +
    +
            텍스트를 번역할 내용: ```
    +
    +    - **CUDA 12.X의 경우:**
    +
    +
    +        PyTorch와 Torchaudio를 CUDA 12.X를 지원하도록 업데이트하려면 다음을 실행하세요:
    +
    +        ```bash
    +pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +
        텍스트를 번역할 내용: ```
    +
    +`2.3.1`을(를) 귀하의 시스템 및 요구 사항에 맞는 PyTorch 버전으로 교체하세요.
    +
    +
      +
    1. 호환성 문제를 해결하기 위한 수정: + 라이브러리 호환성 문제에 직면하면, 이 라이브러리들을 고정된 버전으로 설정해 보세요:
    2. +
    +

    텍스트를 번역할 내용: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/ko/usage/index.html b/ja/ko/usage/index.html new file mode 100755 index 0000000..316eadd --- /dev/null +++ b/ja/ko/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    사용 방법

    +

    빠른 시작

    +

    기본적인 사용 예는 다음과 같습니다:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +
    +engine = SystemEngine() # TTS 엔진을 지정
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    텍스트 피드

    +

    개별 문자열을 입력할 수 있습니다:

    +
    stream.feed("안녕하세요, 이것은 문장입니다.")
    +
    +

    실시간 스트리밍용 제너레이터나 문자 이터레이터를 피드하는 것도 가능합니다:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    재생

    +

    비동기 재생:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    동기 재생:

    +
    stream.play()
    +
    +

    라이브러리 테스트

    +

    test 서브디렉토리에는 RealtimeTTS 라이브러리의 기능을 평가하고 이해하기 위한 스크립트가 포함되어 있습니다.

    +

    오래된 OpenAI API (<1.0.0)에 의존하는 테스트가 많기 때문에, 새로운 OpenAI API의 사용 예는 openai_1.0_test.py에서 확인할 수 있습니다.

    +
      +
    • +

      simple_test.py

      +
        +
      • 설명: 라이브러리의 가장 간단한 사용법을 보여주는 "Hello World" 스타일의 데모.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 설명: 라이브러리의 대부분 기능을 포괄하는 종합적인 데모.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 설명: 로컬 Coqui TTS 엔진의 테스트.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하세요.
      • +
      • 설명: 6개의 다른 언어로 실시간 번역.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하십시오.
      • +
      • 설명: 시작 단어로 시작되는 음성 기반의 OpenAI API 인터페이스.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 의존성: pip install openai keyboard realtimestt를 실행하십시오.
      • +
      • 설명: TTS 엔진과 목소리를 선택하여 AI 대화를 시작하세요.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 의존성: pip install openai realtimestt 실행.
      • +
      • 説明: 20行のコードで作成されたシンプルなトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: ラージランゲージモデル(LLM)との統合の簡単なデモ。
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: コールバックを紹介し、実環境での待機時間をチェック可能。
      • +
      +
    • +
    +

    一時停止、再開 & 停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止したストリームを再開:

    +
    stream.resume()
    +
    +

    ストリームをすぐに停止:

    +
    stream.stop()
    +
    +

    必要要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必須: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリはCoquiのGitHubライブラリ「TTS」に依存しており、Pythonのこのバージョン範囲が必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するため

      +
    • +
    • +

      stream2sentence: 入力されるテキストストリームを文単位に分割するため

      +
    • +
    • +

      pyttsx3: システムテキスト読み上げエンジン

      +
    • +
    • +

      pydub: オーディオチャンクの形式変換用

      +
    • +
    • +

      azure-cognitiveservices-speech: Azureテキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabsテキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTS用CoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap研究所が管理するCoqui TTSのフォークに感謝。

    +
      +
    • +

      openai: OpenAIのTTS APIとのインタラクション用

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/usage/index.html b/ja/usage/index.html new file mode 100755 index 0000000..6c3f217 --- /dev/null +++ b/ja/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    使用

    +

    クイックスタート

    +

    基本的な使用例は次のとおりです。

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # あなたのTTSエンジンに置き換えてください +ストリーム = TextToAudioStream(engine) +stream.feed("こんにちは、世界!") 今日はどうですか? +stream.play_async()

    +

    フィードテキスト

    +

    個別の文字列を入力できます:

    +
    stream.feed("こんにちは、これは文です。")
    +
    +

    または、リアルタイムストリーミングのためにジェネレーターやキャラクターイテレーターを使用することもできます。

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```チャット完了。作成(
    +        モデル="gpt-3.5-turbo",
    +        メッセージ=[{"役割": "ユーザー", "内容": プロンプト}],
    +        ストリーム=True
    +    ):
    +        もし (text_chunk := chunk["choices"]テキストを翻訳してください。["デルタ"].get("content")) は None ではない:
    +            テキストチャンクを生成
    +
    +テキストストリーム = 書き込み("A three-sentence relaxing speech.")
    +
    +ストリームにテキストストリームをフィードする
    +
    +```python
    +char_iterator = iter("文字を1文字ずつストリーミングします。")
    +stream.feed(char_iterator)
    +
    +

    再生

    +

    非同期で:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同時に:

    +
    stream.play()
    +
    +

    ライブラリのテスト

    +

    テストサブディレクトリには、RealtimeTTSライブラリの機能を評価し理解するための一連のスクリプトが含まれています。

    +

    ほとんどのテストはまだ「古い」OpenAI API(<1.0.0)に依存していることに注意してください。 新しいOpenAI APIの使用方法はopenai_1.0_test.pyで示されています。

    +
      +
    • +

      simple_test.py

      +
        +
      • 説明: ライブラリの最も簡単な使い方を示す「ハローワールド」スタイルのデモ。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 説明: ライブラリが提供するほとんどの機能を紹介する包括的なデモ。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 説明: ローカルのcoqui TTSエンジンのテスト。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 6つの異なる言語へのリアルタイム翻訳。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依存関係: pip install openai realtimestt を実行してください。
      • +
      • 説明: ウェイクワードがアクティブになり、OpenAI APIへの音声ベースのユーザーインターフェース。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依存関係: pip install openai keyboard realtimesttを実行してください。
      • +
      • 説明: AI会話を始める前に、TTSエンジンと声を選択してください。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 20行のコードで作る基本的なトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: ライブラリを大規模言語モデルに統合する簡単なデモ (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: コールバックを紹介し、実際のアプリケーション環境でレイテンシー時間を確認できるようにします。
      • +
      +
    • +
    +

    一時停止、再開、停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止中のストリームを再開する:

    +
    stream.resume()
    +
    +

    すぐに配信を停止してください。

    +
    stream.stop()
    +
    +

    要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必要条件: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリは、coquiのGitHubライブラリ「TTS」に依存しており、これにはこの範囲のPythonバージョンが必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するために

      +
    • +
    • +

      stream2sentence: 入力されたテキストストリームを文に分割する

      +
    • +
    • +

      pyttsx3: システム音声合成エンジン

      +
    • +
    • +

      pydub: オーディオチャンクのフォーマットを変換するために

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure テキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabs テキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTSのためのCoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap Research Institutecoqui ttsのフォークを維持していることに感謝します。

    +
      +
    • +

      openai: OpenAIのTTS APIと対話するために

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/zh/api/index.html b/ja/zh/api/index.html new file mode 100755 index 0000000..e36dfd8 --- /dev/null +++ b/ja/zh/api/index.html @@ -0,0 +1,2791 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +

    配置

    +

    TextToAudioStream 的初始化参数

    +

    初始化 TextToAudioStream 类时,有多种选项可自定义其行为。以下是可用参数:

    +

    engine (BaseEngine)

    +
      +
    • 类型**: 基础引擎
    • +
    • 必需**: 是
    • +
    • 描述***: 负责文本到音频合成的底层引擎。您必须提供一个 BaseEngine 或其子类的实例才能启用音频合成。
    • +
    +

    on_text_stream_start(可调用)

    +
      +
    • 类型**: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 这个可选的回调函数会在文本流开始时触发。可用于任何设置或日志记录。
    • +
    +

    on_text_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当文本流结束时,这个可选的回调函数将被激活。可用于清理任务或日志记录。
    • +
    +

    on_audio_stream_start(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流启动时,会调用这个可选的回调函数。可用于用户界面更新或事件记录。
    • +
    +

    on_audio_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流停止时,会调用这个可选的回调函数。是资源清理或后处理任务的理想选择。
    • +
    +

    on_character(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 处理单个字符时调用此可选回调函数。
    • +
    +

    output_device_index (int)

    +
      +
    • 类型***: 整数
    • +
    • 要求**: 无
    • +
    • 默认**: 无
    • +
    • 描述***: 指定要使用的输出设备索引。无则使用默认设备。
    • +
    +

    tokenizer (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 无
    • +
    • 默认**: nltk
    • +
    • 描述**: 用于分句的标记符(目前支持 “nltk ”和 “stanza”)。
    • +
    +

    language (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 否
    • +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +

    muted (bool)

    +
      +
    • 类型***: 布尔
    • +
    • 要求**: 否
    • +
    • 默认**: 假
    • +
    • 描述***: 全局静音参数。如果为 True,则不会打开 pyAudio 流。禁止通过本地扬声器播放音频(以防要合成到文件或处理音频块),并覆盖播放参数静音设置。
    • +
    +

    level (int)

    +
      +
    • 类型**: 整数
    • +
    • 必须**: 无
    • +
    • 默认**: 日志警告
    • +
    • 描述***: 设置内部日志记录器的日志记录级别。可以是 Python 内置的 logging 模块中的任意整数常量。
    • +
    +

    使用示例:

    +
    engine = YourEngine() # 用你的引擎代替
    +stream = TextToAudioStream(
    +    engine=engine、
    +    on_text_stream_start=my_text_start_func、
    +    on_text_stream_stop=my_text_stop_func、
    +    on_audio_stream_start=my_audio_start_func、
    +    on_audio_stream_stop=my_audio_stop_func、
    +    级别=logging.INFO
    +)
    +
    +

    方法

    +

    playplay_async 方法

    +

    这些方法负责执行文本到音频的合成并播放音频流。不同之处在于,play 是一个阻塞函数,而 play_async 则在单独的线程中运行,允许其他操作继续进行。

    +
    参数:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 默认**: true
    • +
    • 描述***: 当设置为 “true ”时,该方法将优先考虑速度,以更快的速度生成和播放句子片段。这对延迟很重要的应用程序很有用。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 当设置为 “true ”时,快速句子片段处理适用于所有句子,而不仅仅是第一个句子。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 设置为 “true ”时,允许产生多个句子片段,而不是只有一个。
    • +
    +
    buffer_threshold_seconds (浮点数)
    +
      +
    • 默认值**: 0.0
    • +
    • +

      描述**: 指定缓冲阈值的时间(以秒为单位),它会影响音频播放的流畅性和连续性。

      +
    • +
    • +

      工作原理 在合成新句子之前,系统会检查缓冲区中剩余的音频资料是否多于 buffer_threshold_seconds指定的时间。如果是,系统就会从文本生成器中获取另一个句子,假设它能在缓冲区中剩余音频所提供的时间窗口内获取并合成这个新句子。这个过程可以让文本到语音引擎有更多的语境,从而更好地进行合成,增强用户体验。

      +
    • +
    +

    较高的值可确保有更多的预缓冲音频,减少播放过程中出现静音或间断的可能性。如果出现断句或停顿,请考虑增加该值。

    +
    minimum_sentence_length(int)
    +
      +
    • 默认10
    • +
    • 描述**: 设置将字符串视为句子进行合成的最小字符长度。这会影响文本块的处理和播放方式。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 默认值**: 10
    • +
    • 描述**: 第一个句子片段的最小字符数。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 启用后,记录合成为音频的文本块。有助于审计和调试。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 默认**: true
    • +
    • 描述**: 如果为 True,则在处理前重置生成的文本。
    • +
    +
    output_wavfile (str)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 如果设置为 “是”,则将音频保存到指定的 WAV 文件中。
    • +
    +
    on_sentence_synthesized(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成一个句子片段后调用的回调函数。
    • +
    +
    before_sentence_synthesized (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成单个句子片段之前调用的回调函数。
    • +
    +
    on_audio_chunk(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 单个音频片段准备就绪时调用的回调函数。
    • +
    +
    tokenizer (str)
    +
      +
    • 默认**: “nltk”
    • +
    • 描述**: 用于分句的标记符。目前支持 “nltk ”和 “stanza”。
    • +
    +
    tokenize_sentences (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 从输入文本中标记句子的自定义函数。如果对 nltk 和 stanza 不满意,可以提供自己的轻量级标记符。它应以字符串形式接收文本,并以字符串列表形式返回拆分后的句子。
    • +
    +
    language (str)
    +
      +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +
    context_size (int)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 用于建立句子边界检测上下文的字符数。上下文越大,检测句子边界的准确性就越高。
    • +
    +
    context_size_look_overhead (整数)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 检测句子边界时用于前瞻的额外上下文大小。
    • +
    +
    muted (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述***: 如果为 True,则禁止通过本地扬声器播放音频。当您想合成一个文件或处理音频块而不播放它们时,此功能非常有用。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 默认**: “.?!;:,\n...)]}。-”
    • +
    • 描述**: 被视为句子分隔符的字符串。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 默认值**: 15
    • +
    • 描述***: 强制产生第一个句子片段的字数。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/zh/contributing/index.html b/ja/zh/contributing/index.html new file mode 100755 index 0000000..754f941 --- /dev/null +++ b/ja/zh/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    向 RealtimeTTS 投稿

    +

    我们欢迎您为 RealtimeTTS 投稿!您可以通过以下方式为 RealtimeTTS 投稿:

    +
      +
    1. +

      报告错误: 如果您发现了错误,请在我们的 GitHub 存储库 上打开一个问题。

      +
    2. +
    3. +

      提出改进建议: 有关于新功能或改进的想法吗?我们很乐意倾听!打开问题,提出改进建议。

      +
    4. +
    5. +

      代码贡献: 想要添加新功能或修复错误?太好了!请按照以下步骤操作:

      +
    6. +
    7. 分叉版本库
    8. +
    9. 为您的功能创建一个新分支
    10. +
    11. 进行更改
    12. +
    13. +

      提交一个拉取请求,清楚地描述您的更改

      +
    14. +
    15. +

      文档: 通过修正错别字、添加示例或澄清易混淆的部分来帮助我们改进文档。

      +
    16. +
    17. +

      添加新引擎: 如果您想添加对新 TTS 引擎的支持,请先打开一个问题来讨论实现方法。

      +
    18. +
    +

    感谢您帮助改进 RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/zh/faq/index.html b/ja/zh/faq/index.html new file mode 100755 index 0000000..aca6af0 --- /dev/null +++ b/ja/zh/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    常见问题

    +

    有关 RealtimeTTS 常见问题的解答,请参阅我们的 GitHub 上的常见问题页面

    +

    该页面涵盖各种主题,包括

    +
      +
    • 不同 TTS 引擎的使用
    • +
    • 处理多语言文本
    • +
    • 性能优化
    • +
    • 常见问题的故障排除
    • +
    +

    更多详细信息,请访问以上链接。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/zh/index.html b/ja/zh/index.html new file mode 100755 index 0000000..aae5ffa --- /dev/null +++ b/ja/zh/index.html @@ -0,0 +1,1937 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    易于使用、低延迟、适用于实时应用的文本到语音库

    +

    项目简介

    +

    RealtimeTTS 是专为实时应用设计的最先进的文本转语音(TTS)库。它能将文本流快速转换为高质量的听觉输出,并将延迟降到最低。

    +

    关键功能

    +
      +
    • 低延迟**:文本到语音的转换几乎瞬时完成,与 LLM 输出兼容
    • +
    • 高质量音频**:生成清晰自然的语音
    • +
    • 支持多种 TTS 引擎**:支持 OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS 和 System TTS
    • +
    • 多种语言**
    • +
    • 稳定可靠**:通过后备机制确保持续运行,在出现中断时切换到替代引擎,保证性能和可靠性的一致性
    • +
    +

    有关安装说明、使用示例和 API 参考,请使用侧边栏浏览文档。

    +

    通过DeepL.com(免费版)翻译

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/zh/installation/index.html b/ja/zh/installation/index.html new file mode 100755 index 0000000..ef557b3 --- /dev/null +++ b/ja/zh/installation/index.html @@ -0,0 +1,2274 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    中文

    + +
    +

    注意: 不再推荐使用 pip install realtimetts 进行基本安装,而应使用 pip install realtimetts[all]

    +
    +

    RealtimeTTS 库为您的用例提供了各种依赖项的安装选项。以下是根据需要安装 RealtimeTTS 的不同方法:

    +

    完整安装

    +

    安装支持所有 TTS 引擎的 RealtimeTTS:

    +
    pip install -U realtimetts[all]
    +
    +

    定制安装

    +

    RealtimeTTS 允许使用最少的库安装进行自定义安装。以下是可用选项: +- 全部: 完全安装所有支持的引擎。 +- *系统: 包括特定系统的 TTS 功能(如 pyttsx3)。 +- azure: 添加 Azure 认知服务语音支持。 +- elevenlabs: 包括与 ElevenLabs API 的集成。 +- openai: 用于 OpenAI 语音服务。 +- gtts: 支持谷歌文本到语音。 +- coqui: 安装 Coqui TTS 引擎。 +- minimal: 只安装基本要求,不安装引擎(只有当你想开发自己的引擎时才需要)。

    +

    如果您只想为本地神经元 Coqui TTS 安装 RealtimeTTS,则应使用

    +
    pip install realtimetts[coqui]
    +
    +

    例如,如果您想安装只支持 Azure 认知服务语音、ElevenLabs 和 OpenAI 的 RealtimeTTS:

    +
    pip install realtimetts[azure,elevenlabs,openai].
    +
    +

    虚拟环境安装

    +

    如果想在虚拟环境中进行完整安装,请按照以下步骤操作:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    有关 CUDA 安装 的更多信息。

    +

    引擎要求

    +

    RealtimeTTS 支持的不同引擎有其独特的要求。请根据所选引擎确保满足这些要求。

    +

    系统引擎

    +

    系统引擎 "开箱即用,具有系统内置的 TTS 功能。无需额外设置。

    +

    GTTS 引擎

    +

    GTTSEngine "开箱即用,使用谷歌翻译的文本到语音 API。无需额外设置。

    +

    OpenAIEngine

    +

    要使用 OpenAIEngine: +- 设置环境变量 OPENAI_API_KEY +- 安装 ffmpeg(参见 CUDA 安装 第 3 点)

    +

    AzureEngine

    +

    要使用 “AzureEngine”,你需要 +- Microsoft Azure 文本到语音 API 密钥(通过 AzureEngine 构造函数参数 “speech_key ”或环境变量 AZURE_SPEECH_KEY 提供) +- Microsoft Azure 服务区域。

    +

    在初始化 AzureEngine 时,确保这些凭据可用并配置正确。

    +

    ElevenlabsEngine

    +

    使用 ElevenlabsEngine 时需要 +- Elevenlabs API 密钥(通过 ElevenlabsEngine 构造函数参数 “api_key ”或环境变量 ELEVENLABS_API_KEY 提供) +- 系统中已安装 mpv(用于流式传输 mpeg 音频,Elevenlabs 仅提供 mpeg)。

    +

    🔹 安装 mpv: + - macOS**: + brew install mpv

    +
      +
    • Linux和Windows: 请访问 mpv.io 获取安装说明。
    • +
    +

    CoquiEngine

    +

    通过语音克隆提供高质量的本地神经 TTS。

    +

    首先下载一个神经 TTS 模型。在大多数情况下,使用 GPU 合成的实时速度足够快。需要大约 4-5GB VRAM。

    +
      +
    • 要克隆语音,请将包含源语音的波形文件的文件名作为 “语音 ”参数提交给 CoquiEngine 构造函数
    • +
    • 语音克隆最好使用 22050 Hz 单声道 16 位 WAV 文件,其中包含一个短(约 5-30 秒)样本
    • +
    +

    在大多数系统上,需要 GPU 的支持才能以足够快的速度实时运行,否则会出现卡顿现象。

    +

    CUDA 安装

    +

    这些步骤适用于那些需要更好性能并且拥有兼容的NVIDIA GPU的人。

    +
    +

    注意要检查您的NVIDIA GPU是否支持CUDA,请访问官方CUDA GPU列表

    +
    +

    要使用支持CUDA的torch,请按照以下步骤操作:

    +
    +

    注意较新的 PyTorch 安装 可能(未经验证)不再需要安装 Toolkit(可能也不需要安装 cuDNN)。

    +
    +
      +
    1. +

      安装 NVIDIA CUDA Toolkit: + 例如,要安装 Toolkit 12.X,请

      +
        +
      • 访问 NVIDIA CUDA 下载
      • +
      • 选择你的操作系统、系统架构和操作系统版本。
      • +
      • 下载并安装软件。
      • +
      +

      或者要安装 Toolkit 11.8,请 +- 访问 NVIDIA CUDA Toolkit Archive。 +- 选择您的操作系统、系统架构和操作系统版本。 +- 下载并安装软件。

      +
    2. +
    3. +

      安装 NVIDIA cuDNN

      +

      例如,要为CUDA 11.x安装cuDNN 8.7.0,请 +- 访问NVIDIA cuDNN归档。 +- 点击“下载 cuDNN v8.7.0(2022年11月28日),适用于 CUDA 11.x”。 +- 下载并安装软件。

      +
    4. +
    5. +

      安装 ffmpeg

      +

      您可以从 ffmpeg 网站 下载适用于您操作系统的安装程序。

      +

      或者使用包管理器:

      +
        +
      • +

        在 Ubuntu 或 Debian 上: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        在 Arch Linux 上: + sudo pacman -S ffmpeg

        +
      • +
      • +

        在使用 Homebrew 的 MacOS 上 (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        在Windows上使用Chocolatey (https://chocolatey.org/): + ``` + choco install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **在Windows上使用Scoop** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```plaintext
    +        scoop install ffmpeg
    +        ```
    +
    +4. **安装带有CUDA支持的PyTorch**:
    +
    +    要升级您的PyTorch安装以启用CUDA的GPU支持,请根据您的具体CUDA版本遵循以下说明。 如果您希望通过CUDA功能提升RealtimeSTT的性能,这将非常有用。
    +
    +    - **对于CUDA 11.8:**
    +
    +        要更新 PyTorch 和 Torchaudio 以支持 CUDA 11.8,请使用以下命令:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        文本待翻译:```
    +
    +- **对于CUDA 12.X:**
    +
    +
    +    要更新 PyTorch 和 Torchaudio 以支持 CUDA 12.X,请执行以下操作:
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +文本待翻译:

    +
    将 `2.3.1` 替换为适合您的系统和需求的 PyTorch 版本。
    +
    +
      +
    1. 修复以解决兼容性问题: + 如果你遇到库兼容性问题,尝试将这些库设置为固定版本:
    2. +
    +

    文本翻译:```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ja/zh/usage/index.html b/ja/zh/usage/index.html new file mode 100755 index 0000000..dbcbc85 --- /dev/null +++ b/ja/zh/usage/index.html @@ -0,0 +1,2149 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + コンテンツにスキップ + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    用法

    +

    快速开始

    +

    这是一个基本的使用示例:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # 替换为你的TTS引擎 +流 = 文本转语音流(engine) +stream.feed("你好,世界!") 你今天怎么样? +stream.play_async()

    +

    供稿文本

    +

    你可以输入单个字符串:

    +
    stream.feed("你好,这是一句话。")
    +
    +

    或者你可以为实时流媒体提供生成器和字符迭代器:

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```聊天完成。创建(
    +        模型="gpt-3.5-turbo",
    +        消息=[{"角色": "用户", "内容": prompt}],
    +        流式=True
    +    ):
    +        如果 (text_chunk := chunk["choices"]上下文:[0]  
    +文本翻译:[0]["德尔塔"].get("content")) 不是 None:
    +            生成文本块
    +
    +文本流 = 写入("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +```python
    +char_iterator = iter("逐字符流式传输。")
    +stream.feed(char_iterator)
    +
    +

    播放

    +

    异步地:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同步:

    +
    stream.play()
    +
    +

    测试库

    +

    测试子目录包含一组脚本,帮助您评估和理解RealtimeTTS库的功能。

    +

    请注意,大多数测试仍然依赖于“旧”的OpenAI API(<1.0.0)。 在 openai_1.0_test.py 中演示了新 OpenAI API 的用法。

    +
      +
    • +

      simple_test.py

      +
        +
      • 描述:一个“你好,世界”风格的演示,展示了该库的最简单用法。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 描述:一个全面的演示,展示了该库提供的大多数功能。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 描述:本地coqui TTS引擎的测试。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述:实时翻译成六种不同的语言。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 唤醒词激活并通过语音界面访问OpenAI API。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依赖项: 运行 pip install openai keyboard realtimestt
      • +
      • 描述: 在开始AI对话之前选择TTS引擎和声音。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 一个20行代码的基本对话机器人。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 如何将库与大型语言模型集成的简单演示 (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 展示回调并让您在实际应用环境中检查延迟时间。
      • +
      +
    • +
    +

    暂停、继续和停止

    +

    暂停音频流:

    +
    stream.pause()
    +
    +

    恢复暂停的直播:

    +
    stream.resume()
    +
    +

    立即停止直播:

    +
    stream.stop()
    +
    +

    需求说明

    +
      +
    • Python 版本
    • +
    • 要求:Python >= 3.9,< 3.13
    • +
    • +

      原因: 该库依赖于来自coqui的GitHub库“TTS”,该库需要在此范围内的Python版本。

      +
    • +
    • +

      PyAudio:用于创建输出音频流

      +
    • +
    • +

      stream2sentence:将输入的文本流拆分成句子

      +
    • +
    • +

      pyttsx3:系统文本转语音引擎

      +
    • +
    • +

      pydub:用于转换音频块格式

      +
    • +
    • +

      azure-cognitiveservices-speech:Azure 语音合成引擎

      +
    • +
    • +

      elevenlabs:Elevenlabs 文字转语音转换引擎

      +
    • +
    • +

      coqui-TTS:Coqui的XTTS文本转语音库,用于高质量本地神经TTS

      +
    • +
    +

    Idiap研究所致敬,感谢他们维护了coqui tts的一个分支

    +
      +
    • +

      openai:与OpenAI的TTS API互动

      +
    • +
    • +

      gtts:谷歌翻译文本转语音转换

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/api/index.html b/ko/api/index.html new file mode 100755 index 0000000..268b362 --- /dev/null +++ b/ko/api/index.html @@ -0,0 +1,2792 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    한국어

    + +

    구성

    +

    TextToAudioStream 초기화 매개변수

    +

    TextToAudioStream 클래스를 초기화할 때, 그 동작을 사용자 정의할 수 있는 다양한 옵션이 있습니다. 사용 가능한 매개변수는 다음과 같습니다:

    +

    engine (BaseEngine)

    +
      +
    • 유형: BaseEngine
    • +
    • 필수: 네 텍스트를 오디오로 변환하는 데 책임이 있는 기본 엔진. 오디오 합성을 활성화하려면 BaseEngine 또는 그 하위 클래스의 인스턴스를 제공해야 합니다.
    • +
    +

    on_text_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 시작될 때 호출됩니다. 필요한 설정이나 로깅에 사용하세요.
    • +
    +

    on_text_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 끝날 때 활성화됩니다. 이것을 정리 작업이나 로깅에 사용할 수 있습니다.
    • +
    +

    on_audio_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 시작될 때 호출됩니다. UI 업데이트나 이벤트 로깅에 유용합니다.
    • +
    +

    on_audio_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 중지될 때 호출됩니다. 리소스 정리나 후처리 작업에 적합합니다.
    • +
    +

    on_character (callable)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 단일 문자가 처리될 때 호출됩니다.
    • +
    +

    output_device_index (int)

    +
      +
    • 유형: 정수
    • +
    • 필수: 아니요 사용할 출력 장치 인덱스를 지정합니다. 아무도 기본 장치를 사용하지 않습니다.
    • +
    +

    tokenizer (string)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요
    • +
    • 기본값: nltk
    • +
    • 설명: 문장 분할에 사용할 토크나이저 (currently "nltk" and "stanza" are supported).
    • +
    +

    language (문자열)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요 문장 분할에 사용할 언어.
    • +
    +

    muted (bool)

    +
      +
    • 유형: Bool
    • +
    • 필수: 아니오
    • +
    • 기본값: False
    • +
    • 설명: 전역 음소거 매개변수. 참이면, pyAudio 스트림이 열리지 않습니다. 로컬 스피커를 통한 오디오 재생을 비활성화합니다 (파일로 합성하거나 오디오 청크를 처리하려는 경우) 및 재생 매개변수의 음소거 설정을 무시합니다.
    • +
    +

    level (int)

    +
      +
    • Type: 정수
    • +
    • Required: 아니요
    • +
    • 기본값: logging.WARNING
    • +
    • 설명: 내부 로거의 로깅 수준을 설정합니다. 이는 Python의 내장 logging 모듈에서 제공하는 정수 상수일 수 있습니다.
    • +
    +

    예시 사용법:

    +
    engine = YourEngine()  # 엔진을 당신의 엔진으로 대체하세요
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    방법

    +

    playplay_async

    +

    이 방법들은 텍스트-오디오 합성을 실행하고 오디오 스트림을 재생하는 역할을 합니다. 차이점은 play가 블로킹 함수인 반면, play_async는 별도의 스레드에서 실행되어 다른 작업이 진행될 수 있다는 것입니다.

    +
    매개변수:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: True로 설정하면, 이 방법은 속도를 우선시하여 문장 조각을 더 빨리 생성하고 재생합니다. 이는 지연 시간이 중요한 애플리케이션에 유용합니다.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 첫 번째 문장뿐만 아니라 모든 문장에 대해 빠른 문장 조각 처리를 적용합니다.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 단일 문장 조각 대신 여러 문장 조각을 생성할 수 있습니다.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • 기본값: 0.0
    • +
    • +

      설명: 버퍼링 임계값을 초 단위로 지정하며, 이는 오디오 재생의 부드러움과 연속성에 영향을 미칩니다.

      +
    • +
    • +

      작동 방식: 새로운 문장을 합성하기 전에 시스템은 버퍼에 남아 있는 오디오 자료가 buffer_threshold_seconds로 지정된 시간보다 더 많은지 확인합니다. 그렇다면, 텍스트 생성기에서 또 다른 문장을 가져오는데, 이는 버퍼에 남아 있는 오디오의 시간 창 내에서 이 새로운 문장을 가져오고 합성할 수 있다고 가정합니다. 이 과정은 텍스트 음성 변환 엔진이 더 나은 합성을 위해 더 많은 맥락을 갖도록 하여 사용자 경험을 향상시킵니다.

      +
    • +
    +

    더 높은 값은 더 많은 미리 버퍼링된 오디오를 보장하여 재생 중 침묵이나 간격이 발생할 가능성을 줄여줍니다. 중단이나 일시 정지가 발생하면 이 값을 늘려보세요.

    +
    minimum_sentence_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 문자열을 합성할 문장으로 간주하기 위한 최소 문자 길이를 설정합니다. 이것은 텍스트 청크가 처리되고 재생되는 방식에 영향을 미칩니다.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 양보하기 전에 첫 번째 문장 조각에 필요한 최소 문자 수.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 활성화되면, 텍스트 조각이 오디오로 합성될 때 로그를 기록합니다. 감사 및 디버깅에 유용합니다.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: 참이면, 처리하기 전에 생성된 텍스트를 재설정하세요.
    • +
    +
    output_wavfile (str)
    +
      +
    • 기본값: None
    • +
    • 설명: 설정된 경우, 오디오를 지정된 WAV 파일로 저장합니다.
    • +
    +
    on_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 문장 조각이 합성된 후 호출되는 콜백 함수.
    • +
    +
    before_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: 없음
    • +
    • 설명: 단일 문장 조각이 합성되기 전에 호출되는 콜백 함수.
    • +
    +
    on_audio_chunk (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 오디오 청크가 준비되면 호출되는 콜백 함수.
    • +
    +
    tokenizer (str)
    +
      +
    • 기본값: "nltk"
    • +
    • 설명: 문장 분리를 위한 토크나이저. 현재 "nltk"와 "stanza"를 지원합니다.
    • +
    +
    tokenize_sentences (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 입력 텍스트에서 문장을 토큰화하는 사용자 정의 함수. nltk와 stanza에 만족하지 않으면 자신만의 경량 토크나이저를 제공할 수 있습니다. 텍스트를 문자열로 받아서 문장으로 나눈 후 문자열 목록으로 반환해야 합니다.
    • +
    +
    language (str)
    +
      +
    • 기본값: "en"
    • +
    • 설명: 문장 분할에 사용할 언어.
    • +
    +
    context_size (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계 감지를 위한 컨텍스트를 설정하는 데 사용되는 문자 수. 더 넓은 맥락이 문장 경계를 감지하는 정확성을 높입니다.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계를 감지할 때 미리 보기 위한 추가 컨텍스트 크기.
    • +
    +
    muted (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 참이면, 로컬 스피커를 통한 오디오 재생을 비활성화합니다. 파일로 합성하거나 오디오 청크를 재생하지 않고 처리할 때 유용합니다.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 기본값: ".?!;:,\n…)]}。-" 문장 구분자로 간주되는 문자 문자열.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 기본값: 15
    • +
    • 설명: 첫 번째 문장 조각이 강제로 생성되는 단어 수.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ar/api/index.html b/ko/ar/api/index.html new file mode 100755 index 0000000..610653d --- /dev/null +++ b/ko/ar/api/index.html @@ -0,0 +1,2359 @@ + + + + + + + + + + + + + + + + + + + Api - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Api

    + +

    التكوين

    +

    معلمات التهيئة لـ TextToAudioStream

    +

    عند تهيئة فئة TextToAudioStream، لديك خيارات متعددة لتخصيص سلوكها. إليك المعلمات المتاحة:

    +

    engine (BaseEngine)

    +
      +
    • النوع: BaseEngine
    • +
    • مطلوب: نعم المحرك الأساسي المسؤول عن تحويل النص إلى صوت. يجب عليك تقديم نسخة من BaseEngine أو أحد فروعها لتمكين توليف الصوت.
    • +
    +

    on_text_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق النص. استخدمه لأي إعداد أو تسجيل قد تحتاجه.
    • +
    +

    on_text_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم تفعيل هذه الدالة الراجعة الاختيارية عند انتهاء تدفق النص. يمكنك استخدام هذا لمهام التنظيف أو التسجيل.
    • +
    +

    on_audio_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق الصوت. مفيد لتحديثات واجهة المستخدم أو تسجيل الأحداث.
    • +
    +

    on_audio_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا تُستدعى هذه الدالة الاختيارية عند توقف تدفق الصوت. مثالي لتنظيف الموارد أو مهام المعالجة اللاحقة.
    • +
    +

    on_character (callable)

    +

    السياق: - النوع:
    +النص للترجمة: - النوع: دالة قابلة للاستدعاء +- مطلوب: لا تُستدعى هذه الدالة الاختيارية عند معالجة حرف واحد.

    +

    output_device_index (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا يحدد فهرس جهاز الإخراج الذي سيتم استخدامه. لا أحد يستخدم الجهاز الافتراضي.
    • +
    +

    tokenizer (string)

    +
      +
    • النوع: سلسلة
    • +
    • مطلوب: لا
    • +
    • افتراضي: nltk
    • +
    • الوصف: أداة تقسيم الجمل (currently "nltk" and "stanza" are supported).
    • +
    +

    language (سلسلة نصية)

    +
      +
    • النوع: سلسلة نصية
    • +
    • مطلوب: لا اللغة التي يجب استخدامها لتقسيم الجمل.
    • +
    +

    muted (bool)

    +
      +
    • النوع: Bool
    • +
    • مطلوب: لا
    • +
    • القيمة الافتراضية: False
    • +
    • الوصف: المعلمة العالمية الصامتة. إذا كان صحيحًا، فلن يتم فتح أي تدفق pyAudio. يعطل تشغيل الصوت عبر مكبرات الصوت المحلية (في حال كنت تريد التوليف إلى ملف أو معالجة أجزاء الصوت) ويتجاوز إعدادات كتم الصوت في معلمات التشغيل.
    • +
    +

    level (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا
    • +
    • افتراضي: logging.WARNING
    • +
    • الوصف: يحدد مستوى التسجيل للمدون الداخلي. يمكن أن يكون هذا أي ثابت صحيح من وحدة logging المدمجة في بايثون.
    • +
    +

    النص المراد ترجمته: #### مثال على الاستخدام:

    +
    engine = YourEngine()  # استبدل بمحركك
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    الطرق

    +

    play و play_async

    +

    هذه الطرق مسؤولة عن تنفيذ تحويل النص إلى صوت وتشغيل تدفق الصوت. الفرق هو أن play هي دالة حظر، بينما play_async تعمل في خيط منفصل، مما يسمح للعمليات الأخرى بالاستمرار.

    +

    السياق: ##### المعايير:
    +النص المراد ترجمته: ##### المعايير:

    +
    fast_sentence_fragment (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: عند تعيينه على True، ستعطي الطريقة الأولوية للسرعة، مما يؤدي إلى إنشاء وتشغيل أجزاء الجمل بشكل أسرع. هذا مفيد للتطبيقات التي تكون فيها الكمون مهمًا.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند تعيينه إلى True، يتم تطبيق معالجة أجزاء الجمل السريعة على جميع الجمل، وليس فقط الجملة الأولى.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • افتراضي: خطأ
    • +
    • الوصف: عند تعيينه على True، يسمح بإنتاج أجزاء متعددة من الجمل بدلاً من جزء واحد فقط.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • الافتراضي: 0.0
    • +
    • +

      الوصف: يحدد الوقت بالثواني لعتبة التخزين المؤقت، مما يؤثر على سلاسة واستمرارية تشغيل الصوت.

      +
    • +
    • +

      كيف يعمل: قبل تركيب جملة جديدة، يتحقق النظام مما إذا كان هناك المزيد من المواد الصوتية المتبقية في المخزن المؤقت أكثر من الوقت المحدد بواسطة buffer_threshold_seconds. إذا كان الأمر كذلك، فإنه يسترجع جملة أخرى من مولد النصوص، على افتراض أنه يمكنه جلب وتوليف هذه الجملة الجديدة ضمن الإطار الزمني المتاح من الصوت المتبقي في الذاكرة المؤقتة. تسمح هذه العملية لمحرك تحويل النص إلى كلام بالحصول على مزيد من السياق لتحسين التركيب، مما يعزز تجربة المستخدم.

      +
    • +
    +

    قيمة أعلى تضمن وجود المزيد من الصوت المخزن مسبقًا، مما يقلل من احتمال حدوث صمت أو فجوات أثناء التشغيل. إذا كنت تواجه انقطاعات أو توقفات، فكر في زيادة هذه القيمة.

    +
    minimum_sentence_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: يحدد الحد الأدنى لطول الأحرف لاعتبار سلسلة كنص يجب تصنيعه. هذا يؤثر على كيفية معالجة وتشغيل أجزاء النص.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: الحد الأدنى لعدد الأحرف المطلوبة للجزء الأول من الجملة قبل التوقف.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند التفعيل، يسجل أجزاء النص كما يتم تحويلها إلى صوت. مفيد للتدقيق وإصلاح الأخطاء.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: إذا كان صحيحًا، أعد تعيين النص المُولد قبل المعالجة.
    • +
    +
    output_wavfile (str)
    +
      +
    • الافتراضي: None
    • +
    • الوصف: إذا تم تعيينه، احفظ الصوت في ملف WAV المحدد.
    • +
    +
    on_sentence_synthesized (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة رد نداء تُستدعى بعد أن يتم تركيب جزء جملة واحد.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: دالة رد نداء تُستدعى قبل أن يتم تركيب جزء جملة واحد.
    • +
    +
    on_audio_chunk (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة الاستدعاء التي تُستدعى عندما يكون جزء الصوت جاهزًا.
    • +
    +
    tokenizer (str)
    +
      +
    • الافتراضي: "nltk"
    • +
    • الوصف: المحلل اللغوي المستخدم لتقسيم الجمل. يدعم حاليًا "nltk" و "stanza".
    • +
    +
    tokenize_sentences (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء +السياق: - الوصف:
      +النص للترجمة: - الوصف: دالة مخصصة تقوم بتقسيم الجمل من النص المدخل. يمكنك توفير محلل لغوي خفيف الوزن خاص بك إذا لم تكن راضيًا عن nltk وstanza. يجب أن يأخذ النص كسلسلة ويعيد الجمل المقسمة كقائمة من السلاسل.
    • +
    +
    language (str)
    +
      +
    • الإعداد الافتراضي: "en"
    • +
    • الوصف: اللغة المستخدمة لتقسيم الجمل.
    • +
    +
    context_size (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: عدد الأحرف المستخدمة لتحديد السياق لاكتشاف حدود الجمل. سياق أكبر يحسن دقة اكتشاف حدود الجمل.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: حجم سياق إضافي للنظر للأمام عند اكتشاف حدود الجمل.
    • +
    +
    muted (bool)
    +
      +
    • الإعداد الافتراضي: خطأ
    • +
    • الوصف: إذا كان صحيحًا، يتم تعطيل تشغيل الصوت عبر مكبرات الصوت المحلية. مفيد عندما تريد التوليف إلى ملف أو معالجة مقاطع الصوت دون تشغيلها.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • الإعداد الافتراضي: ".?!;:,\n…)]}。-" سلسلة من الأحرف التي تُعتبر محددات للجمل.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • الافتراضي: 15
    • +
    • الوصف: عدد الكلمات التي يجب بعدها أن يتم تقديم الجزء الأول من الجملة.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ar/contributing/index.html b/ko/ar/contributing/index.html new file mode 100755 index 0000000..733ff9e --- /dev/null +++ b/ko/ar/contributing/index.html @@ -0,0 +1,1853 @@ + + + + + + + + + + + + + + + + + + + المساهمة في RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    المساهمة في RealtimeTTS

    +

    نرحب بالمساهمات في RealtimeTTS! إليك بعض الطرق التي يمكنك المساهمة بها:

    +
      +
    1. +

      الإبلاغ عن الأخطاء: إذا وجدت خطأً، يرجى فتح مشكلة على مستودع GitHub الخاص بنا.

      +
    2. +
    3. +

      اقتراح التحسينات: هل لديك أفكار لميزات جديدة أو تحسينات؟ نود أن نسمعها! افتح قضية لاقتراح تحسينات.

      +
    4. +
    5. +

      مساهمات البرمجة: هل تريد إضافة ميزة جديدة أو إصلاح خطأ؟ رائع! يرجى اتباع هذه الخطوات:

      +
    6. +
    7. قم بعمل Fork للمستودع
    8. +
    9. أنشئ فرعًا جديدًا لميزتك
    10. +
    11. أجرِ التغييرات الخاصة بك
    12. +
    13. +

      قدّم طلب سحب مع وصف واضح للتغييرات التي أجريتها

      +
    14. +
    15. +

      التوثيق: ساعدنا في تحسين توثيقنا من خلال تصحيح الأخطاء المطبعية، وإضافة أمثلة، أو توضيح الأقسام المربكة.

      +
    16. +
    17. +

      إضافة محركات جديدة: إذا كنت ترغب في إضافة دعم لمحرك TTS جديد، يرجى فتح قضية أولاً لمناقشة التنفيذ.

      +
    18. +
    +

    شكراً لمساعدتك في تحسين RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ar/faq/index.html b/ko/ar/faq/index.html new file mode 100755 index 0000000..07f144b --- /dev/null +++ b/ko/ar/faq/index.html @@ -0,0 +1,1837 @@ + + + + + + + + + + + + + + + + + + + الأسئلة المتكررة - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    الأسئلة المتكررة

    +

    للحصول على إجابات للأسئلة الشائعة حول RealtimeTTS، يرجى الرجوع إلى صفحة الأسئلة الشائعة على GitHub.

    +

    تغطي هذه الصفحة مواضيع متنوعة بما في ذلك:

    +
      +
    • استخدام محركات تحويل النص إلى كلام المختلفة
    • +
    • التعامل مع النصوص متعددة اللغات
    • +
    • تحسين الأداء
    • +
    • استكشاف المشكلات الشائعة وإصلاحها
    • +
    +

    لمزيد من المعلومات التفصيلية، يرجى زيارة الرابط أعلاه.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ar/index.html b/ko/ar/index.html new file mode 100755 index 0000000..07afad7 --- /dev/null +++ b/ko/ar/index.html @@ -0,0 +1,1867 @@ + + + + + + + + + + + + + + + + + + + RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    مكتبة تحويل النص إلى كلام سهلة الاستخدام ومنخفضة الكمون للتطبيقات في الوقت الحقيقي

    +

    عن المشروع

    +

    RealtimeTTS هي مكتبة متطورة لتحويل النص إلى كلام (TTS) مصممة للتطبيقات في الوقت الفعلي. تتميز بقدرتها على تحويل تدفقات النصوص بسرعة إلى مخرجات صوتية عالية الجودة مع الحد الأدنى من التأخير.

    +

    الميزات الرئيسية

    +
      +
    • زمن استجابة منخفض: تحويل النص إلى كلام شبه فوري، متوافق مع مخرجات نماذج اللغة الكبيرة
    • +
    • صوت عالي الجودة: يولد كلامًا واضحًا وطبيعيًا
    • +
    • دعم محركات تحويل النص إلى كلام المتعددة: يدعم OpenAI TTS، Elevenlabs، Azure Speech Services، Coqui TTS، gTTS وSystem TTS
    • +
    • متعدد اللغات
    • +
    • قوي وموثوق: يضمن التشغيل المستمر من خلال آلية احتياطية، ويتحول إلى محركات بديلة في حالة حدوث انقطاعات لضمان أداء موحد وموثوق
    • +
    +

    للحصول على تعليمات التثبيت، وأمثلة الاستخدام، ومرجع واجهة برمجة التطبيقات، يرجى التنقل عبر الوثائق باستخدام الشريط الجانبي.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ar/installation/index.html b/ko/ar/installation/index.html new file mode 100755 index 0000000..fbf041c --- /dev/null +++ b/ko/ar/installation/index.html @@ -0,0 +1,2094 @@ + + + + + + + + + + + + + + + + + + + Installation - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Installation

    + +
    +

    ملاحظة: التثبيت الأساسي باستخدام pip install realtimetts لم يعد موصى به، استخدم pip install realtimetts[all] بدلاً من ذلك.

    +
    +

    توفر مكتبة RealtimeTTS خيارات تثبيت لمختلف التبعيات لحالتك الاستخدامية. إليك الطرق المختلفة التي يمكنك من خلالها تثبيت RealtimeTTS حسب احتياجاتك:

    +

    التثبيت الكامل

    +

    لتثبيت RealtimeTTS مع دعم لجميع محركات تحويل النص إلى كلام:

    +
    pip install -U realtimetts[all]
    +
    +

    التثبيت المخصص

    +

    يسمح RealtimeTTS بالتثبيت المخصص مع الحد الأدنى من تثبيت المكتبات. إليك الخيارات المتاحة: +- الكل: التثبيت الكامل مع دعم كل المحركات. +- النظام: يشمل قدرات تحويل النص إلى كلام الخاصة بالنظام (e.g., pyttsx3). +- azure: يضيف دعم خدمات Azure Cognitive Services Speech. +- elevenlabs: يتضمن التكامل مع واجهة برمجة تطبيقات ElevenLabs. +- openai: لخدمات الصوت من OpenAI. +- gtts: دعم Google Text-to-Speech. +- coqui: يقوم بتثبيت محرك Coqui TTS. +- minimal: يقوم بتثبيت المتطلبات الأساسية فقط بدون محرك (only needed if you want to develop an own engine)

    +

    قل أنك تريد تثبيت RealtimeTTS للاستخدام المحلي فقط مع Coqui TTS العصبي، فعليك استخدام:

    +
    pip install realtimetts[coqui]
    +
    +

    على سبيل المثال، إذا كنت ترغب في تثبيت RealtimeTTS مع دعم Azure Cognitive Services Speech و ElevenLabs و OpenAI فقط:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    تثبيت البيئة الافتراضية

    +

    بالنسبة لأولئك الذين يرغبون في إجراء تثبيت كامل داخل بيئة افتراضية، اتبعوا هذه الخطوات:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    مزيد من المعلومات حول تثبيت CUDA.

    +

    متطلبات المحرك

    +

    تتطلب المحركات المختلفة المدعومة من RealtimeTTS متطلبات فريدة. تأكد من أنك تلبي هذه المتطلبات بناءً على المحرك الذي تختاره.

    +

    محرك النظام

    +

    يعمل SystemEngine مباشرة مع قدرات تحويل النص إلى كلام المدمجة في نظامك. لا حاجة لأي إعداد إضافي.

    +

    GTTSEngine

    +

    يعمل GTTSEngine بشكل مباشر باستخدام واجهة برمجة التطبيقات لتحويل النص إلى كلام من Google Translate. لا حاجة لأي إعداد إضافي.

    +

    OpenAIEngine

    +

    لاستخدام OpenAIEngine: +- تعيين متغير البيئة OPENAI_API_KEY +- تثبيت ffmpeg (انظر تثبيت CUDA النقطة 3)

    +

    AzureEngine

    +

    لاستخدام AzureEngine، ستحتاج إلى: +- مفتاح واجهة برمجة تطبيقات تحويل النص إلى كلام من Microsoft Azure (المقدم عبر معامل منشئ AzureEngine "speech_key" أو في متغير البيئة AZURE_SPEECH_KEY) +- منطقة خدمة Microsoft Azure.

    +

    تأكد من أن لديك هذه البيانات متاحة ومهيأة بشكل صحيح عند تهيئة AzureEngine.

    +

    محرك Elevenlabs

    +

    بالنسبة لـ ElevenlabsEngine، تحتاج إلى: +- مفتاح واجهة برمجة تطبيقات Elevenlabs (المقدم عبر معلمة منشئ ElevenlabsEngine "api_key" أو في متغير البيئة ELEVENLABS_API_KEY) +- تم تثبيت mpv على نظامك (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 تثبيت mpv: + - macOS: + ``` + brew install mpv

    +
    
    +  - **لينكس وويندوز**: قم بزيارة [mpv.io](https://mpv.io/) للحصول على تعليمات التثبيت.
    +
    +### CoquiEngine
    +
    +يوفر تحويل النص إلى كلام العصبي المحلي عالي الجودة مع استنساخ الصوت.
    +
    +يقوم بتحميل نموذج TTS العصبي أولاً. في معظم الحالات، سيكون سريعًا بما يكفي للتشغيل في الوقت الحقيقي باستخدام تركيب GPU. يحتاج إلى حوالي 4-5 جيجابايت من ذاكرة الوصول العشوائي للرسوميات.
    +
    +- لاستنساخ الصوت، قدم اسم ملف wav يحتوي على الصوت المصدر كمعامل "voice" إلى مُنشئ CoquiEngine
    +- يعمل استنساخ الصوت بشكل أفضل مع ملف WAV أحادي 16 بت بتردد 22050 هرتز يحتوي على عينة قصيرة (~5-30 ثانية)
    +
    +في معظم الأنظمة، ستكون هناك حاجة لدعم وحدة معالجة الرسوميات (GPU) لتشغيلها بسرعة كافية في الوقت الحقيقي، وإلا ستواجه تلعثماً.
    +
    +
    +### تثبيت CUDA
    +
    +تُوصى هذه الخطوات لمن يحتاجون إلى **أداء أفضل** ولديهم وحدة معالجة رسومات NVIDIA متوافقة.
    +
    +> **ملاحظة**: *للتحقق مما إذا كانت بطاقة NVIDIA الرسومية الخاصة بك تدعم CUDA، قم بزيارة [قائمة بطاقات CUDA الرسمية](https://developer.nvidia.com/cuda-gpus).*
    +
    +لاستخدام Torch مع الدعم عبر CUDA، يرجى اتباع الخطوات التالية:
    +
    +> **ملاحظة**: *قد لا تحتاج إصدارات PyTorch الأحدث [إلى](https://stackoverflow.com/a/77069523) (غير مؤكدة) إلى تثبيت Toolkit (وربما cuDNN) بعد الآن.*
    +
    +1. **تثبيت NVIDIA CUDA Toolkit**:
    +    على سبيل المثال، لتثبيت Toolkit 12.X، يرجى
    +    - زيارة [تنزيلات NVIDIA CUDA](https://developer.nvidia.com/cuda-downloads).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار النظام.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +    أو لتثبيت Toolkit 11.8، يرجى
    +    - زيارة [أرشيف NVIDIA CUDA Toolkit](https://developer.nvidia.com/cuda-11-8-0-download-archive).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار نظام التشغيل.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٢. **تثبيت NVIDIA cuDNN**:
    +
    +    على سبيل المثال، لتثبيت cuDNN 8.7.0 لـ CUDA 11.x يرجى
    +    - زيارة [أرشيف NVIDIA cuDNN](https://developer.nvidia.com/rdp/cudnn-archive).
    +    - انقر على "تحميل cuDNN v8.7.0 (28 نوفمبر 2022)، لـ CUDA 11.x".
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٣. **تثبيت ffmpeg**:
    +
    +    يمكنك تنزيل مثبت لنظام التشغيل الخاص بك من [موقع ffmpeg](https://ffmpeg.org/download.html).
    +
    +    أو استخدم مدير حزم:
    +
    +    - **على أوبونتو أو ديبيان**:
    +        ```
    +        sudo apt update && sudo apt install ffmpeg
    +        ```
    +
    +    - **على أرتش لينكس**:
    +        ```
    +        sudo pacman -S ffmpeg
    +        ```
    +
    +    - **على نظام MacOS باستخدام Homebrew** ([https://brew.sh/](https://brew.sh/)):
    +        ```
    +        brew install ffmpeg
    +        ```
    +
    +    - **على نظام ويندوز باستخدام Chocolatey** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **على نظام ويندوز باستخدام سكوب** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    سكووب تثبيت ffmpeg
    +
    +
    
    +٤. **تثبيت PyTorch مع دعم CUDA**:
    +
    +    لترقية تثبيت PyTorch الخاص بك لتمكين دعم GPU باستخدام CUDA، اتبع هذه التعليمات بناءً على إصدار CUDA الخاص بك. هذا مفيد إذا كنت ترغب في تحسين أداء RealtimeSTT بقدرات CUDA.
    +
    +    - **لـ CUDA 11.8:**
    +
    +        لتحديث PyTorch و Torchaudio لدعم CUDA 11.8، استخدم الأوامر التالية:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        النص للترجمة: ```
    +
    +- **لـ CUDA 12.X:**
    +
    +
    +    لتحديث PyTorch و Torchaudio لدعم CUDA 12.X، نفذ ما يلي:
    +
    +    ```
    +    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +

    النص للترجمة:

    +
    استبدل `2.3.1` بالإصدار من PyTorch الذي يتناسب مع نظامك ومتطلباتك.
    +
    +
      +
    1. إصلاح لحل مشاكل التوافق: + إذا واجهت مشاكل في توافق المكتبات، حاول ضبط هذه المكتبات على إصدارات ثابتة:
    2. +
    +

    النص للترجمة: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ar/usage/index.html b/ko/ar/usage/index.html new file mode 100755 index 0000000..f1e0607 --- /dev/null +++ b/ko/ar/usage/index.html @@ -0,0 +1,2035 @@ + + + + + + + + + + + + + + + + + + + الاستخدام - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    الاستخدام

    +

    البداية السريعة

    +

    إليك مثال بسيط للاستخدام:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    نص التغذية

    +

    يمكنك إدخال سلاسل فردية:

    +
    stream.feed("مرحبًا، هذه جملة.")
    +
    +

    أو يمكنك تزويد المولدات ومكررات الشخصيات للبث المباشر:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    التشغيل

    +

    بشكل غير متزامن:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    بالتزامن:

    +
    stream.play()
    +
    +

    اختبار المكتبة

    +

    تحتوي الدليل الفرعي للاختبار على مجموعة من السكربتات لمساعدتك في تقييم وفهم قدرات مكتبة RealtimeTTS.

    +

    يرجى ملاحظة أن معظم الاختبارات لا تزال تعتمد على واجهة برمجة التطبيقات "القديمة" من OpenAI (<1.0.0). يتم توضيح استخدام واجهة برمجة التطبيقات الجديدة من OpenAI في openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • الوصف: عرض توضيحي بأسلوب "مرحبا بالعالم" لأبسط استخدامات المكتبة.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • الوصف: عرض شامل يوضح معظم الميزات التي توفرها المكتبة.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • الوصف: اختبار لمحرك تحويل النص إلى كلام المحلي coqui.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt.
      • +
      • الوصف: ترجمات فورية إلى ست لغات مختلفة.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt. +السياق: - الوصف:
        +النص للترجمة: - الوصف: تم تفعيل كلمة الاستيقاظ وواجهة المستخدم المعتمدة على الصوت لواجهة برمجة تطبيقات OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • التبعيات: شغل الأمر pip install openai keyboard realtimestt.
      • +
      • الوصف: اختر محرك تحويل النص إلى كلام والصوت قبل بدء المحادثة مع الذكاء الاصطناعي.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • المتطلبات: قم بتشغيل pip install openai realtimestt.
      • +
      • الوصف: روبوت محادثة بسيط في 20 سطر من الشيفرة.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • التبعيات: شغّل pip install openai.
      • +
      • الوصف: عرض بسيط لكيفية دمج المكتبة مع نماذج اللغة الكبيرة (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • التبعيات: شغل pip install openai. +السياق: - الوصف:
        +النص للترجمة: - الوصف: يعرض الاستدعاءات ويتيح لك التحقق من أوقات الكمون في بيئة تطبيقات العالم الحقيقي.
      • +
      +
    • +
    +

    إيقاف مؤقت، استئناف وإيقاف

    +

    أوقف بث الصوت:

    +
    stream.pause()
    +
    +

    استئناف بث متوقف:

    +
    stream.resume()
    +
    +

    أوقف البث فورًا:

    +
    stream.stop()
    +
    +

    متطلبات موضحة

    +
      +
    • إصدار بايثون:
    • +
    • المطلوب: بايثون >= 3.9, < 3.13
    • +
    • +

      السبب: المكتبة تعتمد على مكتبة GitHub "TTS" من coqui، والتي تتطلب إصدارات بايثون في هذا النطاق.

      +
    • +
    • +

      PyAudio: لإنشاء دفق صوتي خارجي

      +
    • +
    • +

      stream2sentence: لتقسيم تدفق النص الوارد إلى جمل

      +
    • +
    • +

      pyttsx3: محرك تحويل النص إلى كلام للنظام

      +
    • +
    • +

      pydub: لتحويل تنسيقات مقاطع الصوت

      +
    • +
    • +

      azure-cognitiveservices-speech: محرك تحويل النص إلى كلام من Azure

      +
    • +
    • +

      elevenlabs: محرك تحويل النص إلى كلام من Elevenlabs

      +
    • +
    • +

      coqui-TTS: مكتبة Coqui XTTS لتحويل النص إلى كلام بجودة عالية باستخدام الشبكات العصبية المحلية

      +
    • +
    +

    تحية إلى معهد أبحاث إيديا على الحفاظ على نسخة مفرعة من coqui tts.

    +
      +
    • +

      openai: للتفاعل مع واجهة برمجة التطبيقات لتحويل النص إلى كلام من OpenAI

      +
    • +
    • +

      gtts: تحويل النص إلى كلام باستخدام Google Translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/contributing/index.html b/ko/contributing/index.html new file mode 100755 index 0000000..2d58136 --- /dev/null +++ b/ko/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS에 기여하기

    +

    RealtimeTTS에 기여해 주시면 환영합니다! 여기 당신이 기여할 수 있는 몇 가지 방법이 있습니다:

    +
      +
    1. +

      버그 신고: 버그를 발견하셨다면, 저희 GitHub 저장소에 이슈를 열어주세요.

      +
    2. +
    3. +

      개선 사항 제안하기: 새로운 기능이나 개선 사항에 대한 아이디어가 있나요? 우리는 그것들을 듣고 싶어요! 개선 사항을 제안하기 위해 이슈를 열어주세요.

      +
    4. +
    5. +

      코드 기여: 새로운 기능을 추가하거나 버그를 수정하고 싶으신가요? 대단해! 다음 단계를 따라주세요:

      +
    6. +
    7. 저장소를 포크하세요
    8. +
    9. 기능을 위한 새로운 브랜치를 만드세요
    10. +
    11. +

      변경 사항을 적용하세요 + 변경 사항에 대한 명확한 설명과 함께 풀 리퀘스트를 제출하세요.

      +
    12. +
    13. +

      문서화: 오타를 수정하거나 예제를 추가하거나 혼란스러운 부분을 명확히 하여 문서화를 개선하는 데 도움을 주세요.

      +
    14. +
    15. +

      새 엔진 추가하기: 새로운 TTS 엔진을 추가하고 싶다면, 먼저 구현에 대해 논의하기 위해 이슈를 열어주세요.

      +
    16. +
    +

    RealtimeTTS를 더 좋게 만드는 데 도움을 주셔서 감사합니다!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/de/api/index.html b/ko/de/api/index.html new file mode 100755 index 0000000..62ce4b6 --- /dev/null +++ b/ko/de/api/index.html @@ -0,0 +1,2777 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Konfiguration

    +

    Initialisierungsparameter für TextToAudioStream

    +

    Bei der Initialisierung der TextToAudioStream-Klasse haben Sie verschiedene Möglichkeiten, deren Verhalten anzupassen. Hier sind die verfügbaren Parameter:

    +

    engine (BaseEngine)

    +
      +
    • Typ: BaseEngine
    • +
    • Erforderlich: Ja
    • +
    • Beschreibung: Die zugrunde liegende Engine, die für die Text-zu-Audio-Synthese verantwortlich ist. Sie müssen eine Instanz von BaseEngine oder deren Unterklasse bereitstellen, um die Audio-Synthese zu ermöglichen.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird ausgelöst, wenn der Textstream beginnt. Verwenden Sie sie für beliebige Setup- oder Logging-Aufgaben.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aktiviert, wenn der Textstream endet. Sie können diese für Aufräumarbeiten oder Logging verwenden.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream startet. Nützlich für UI-Aktualisierungen oder Event-Logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream stoppt. Ideal für Ressourcenbereinigung oder Nachbearbeitungsaufgaben.
    • +
    +

    on_character (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn ein einzelnes Zeichen verarbeitet wird.
    • +
    +

    output_device_index (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: None
    • +
    • Beschreibung: Gibt den zu verwendenden Ausgabegeräte-Index an. None verwendet das Standardgerät.
    • +
    +

    tokenizer (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: nltk
    • +
    • Beschreibung: Tokenizer für die Satztrennung (derzeit werden "nltk" und "stanza" unterstützt).
    • +
    +

    language (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: en
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +

    muted (bool)

    +
      +
    • Typ: Bool
    • +
    • Erforderlich: Nein
    • +
    • Standard: False
    • +
    • Beschreibung: Globaler Stummschaltungsparameter. Wenn True, wird kein pyAudio-Stream geöffnet. Deaktiviert die Audiowiedergabe über lokale Lautsprecher.
    • +
    +

    level (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: logging.WARNING
    • +
    • Beschreibung: Legt den Logging-Level für den internen Logger fest.
    • +
    +

    Beispielverwendung:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methoden

    +

    play und play_async

    +

    Diese Methoden sind für die Ausführung der Text-zu-Audio-Synthese und das Abspielen des Audio-Streams verantwortlich. Der Unterschied besteht darin, dass play eine blockierende Funktion ist, während play_async in einem separaten Thread läuft, wodurch andere Operationen fortgesetzt werden können.

    +

    Parameter:

    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn auf True gesetzt, priorisiert die Methode die Geschwindigkeit und generiert und spielt Satzfragmente schneller ab. Dies ist nützlich für Anwendungen, bei denen die Latenz wichtig ist.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, wird die schnelle Satzfragmentverarbeitung auf alle Sätze angewendet, nicht nur auf den ersten.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, ermöglicht es die Ausgabe mehrerer Satzfragmente anstelle von nur einem.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Beschreibung: Gibt die Zeit in Sekunden für den Puffer-Schwellenwert an, der die Gleichmäßigkeit und Kontinuität der Audiowiedergabe beeinflusst.

      +
    • +
    • +

      Funktionsweise: Bevor ein neuer Satz synthetisiert wird, prüft das System, ob mehr Audiomaterial im Puffer verbleibt als die durch buffer_threshold_seconds angegebene Zeit. Wenn ja, ruft es einen weiteren Satz vom Textgenerator ab, unter der Annahme, dass es diesen neuen Satz innerhalb des Zeitfensters, das durch das verbleibende Audio im Puffer bereitgestellt wird, abrufen und synthetisieren kann. Dieser Prozess ermöglicht es der Text-to-Speech-Engine, mehr Kontext für eine bessere Synthese zu haben und verbessert dadurch das Benutzererlebnis.

      +
    • +
    +

    Ein höherer Wert sorgt für mehr vorgepuffertes Audio und reduziert die Wahrscheinlichkeit von Stille oder Lücken während der Wiedergabe. Wenn Sie Unterbrechungen oder Pausen bemerken, erhöhen Sie diesen Wert.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Legt die minimale Zeichenlänge fest, ab der ein String als zu synthetisierender Satz betrachtet wird. Dies beeinflusst, wie Textabschnitte verarbeitet und abgespielt werden.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Die minimale Anzahl von Zeichen, die für das erste Satzfragment erforderlich sind, bevor es ausgegeben wird.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn aktiviert, protokolliert es die Textabschnitte während ihrer Synthese zu Audio. Hilfreich für Überprüfung und Debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn True, wird der generierte Text vor der Verarbeitung zurückgesetzt.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Beschreibung: Wenn gesetzt, wird das Audio in der angegebenen WAV-Datei gespeichert.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, nachdem ein einzelnes Satzfragment synthetisiert wurde.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, bevor ein einzelnes Satzfragment synthetisiert wird.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Callback-Funktion, die aufgerufen wird, wenn ein einzelner Audio-Chunk bereit ist.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Beschreibung: Tokenizer für die Satztrennung. Unterstützt derzeit "nltk" und "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine benutzerdefinierte Funktion, die Sätze aus dem Eingabetext tokenisiert. Sie können Ihren eigenen leichtgewichtigen Tokenizer bereitstellen, wenn Sie mit nltk und stanza unzufrieden sind. Die Funktion sollte Text als String entgegennehmen und getrennte Sätze als Liste von Strings zurückgeben.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Die Anzahl der Zeichen, die verwendet werden, um den Kontext für die Satzerkennung festzulegen. Ein größerer Kontext verbessert die Genauigkeit der Satzerkennung.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Zusätzliche Kontextgröße für den Vorausblick bei der Satzerkennung.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn True, wird die Audiowiedergabe über lokale Lautsprecher deaktiviert. Nützlich, wenn Sie in eine Datei synthetisieren oder Audio-Chunks verarbeiten möchten, ohne sie abzuspielen.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Beschreibung: Eine Zeichenkette von Zeichen, die als Satztrennzeichen betrachtet werden.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Beschreibung: Die Anzahl der Wörter, nach denen das erste Satzfragment erzwungen ausgegeben wird.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/de/contributing/index.html b/ko/de/contributing/index.html new file mode 100755 index 0000000..fdcb45a --- /dev/null +++ b/ko/de/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Beitrag zu RealtimeTTS

    +

    Wir freuen uns über Beiträge zu RealtimeTTS! Hier sind einige Möglichkeiten, wie Sie dazu beitragen können:

    +
      +
    1. +

      Berichterstattung über Fehler: Wenn Sie einen Fehler finden, öffnen Sie bitte ein Problem in unserem [GitHub-Repository] (https://github.com/KoljaB/RealtimeTTS/issues).

      +
    2. +
    3. +

      ** Verbesserungsvorschläge**: Haben Sie Ideen für neue Funktionen oder Verbesserungen? Wir würden sie gerne hören! Öffnen Sie eine Ausgabe, um Verbesserungen vorzuschlagen.

      +
    4. +
    5. +

      Code Beiträge: Möchten Sie eine neue Funktion hinzufügen oder einen Fehler beheben? Super! Bitte folgen Sie diesen Schritten:

      +
    6. +
    7. Forken Sie das Repository
    8. +
    9. Erstellen Sie einen neuen Zweig für Ihre Funktion
    10. +
    11. Nehmen Sie Ihre Änderungen vor
    12. +
    13. +

      Senden Sie eine Pull-Anfrage mit einer klaren Beschreibung Ihrer Änderungen

      +
    14. +
    15. +

      Dokumentation: Helfen Sie uns, unsere Dokumentation zu verbessern, indem Sie Tippfehler reparieren, Beispiele hinzufügen oder verwirrende Abschnitte klären.

      +
    16. +
    17. +

      ** Hinzufügen neuer Motoren**: Wenn Sie Unterstützung für eine neue TTS-Engine hinzufügen möchten, öffnen Sie bitte zuerst eine Ausgabe, um die Implementierung zu besprechen.

      +
    18. +
    +

    Vielen Dank, dass Sie dazu beigetragen haben, RealtimeTTS besser zu machen!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/de/faq/index.html b/ko/de/faq/index.html new file mode 100755 index 0000000..c9341c0 --- /dev/null +++ b/ko/de/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Häufig gestellte Fragen

    +

    Antworten auf häufig gestellte Fragen zu RealtimeTTS finden Sie auf unserer [FAQ-Seite auf GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Diese Seite behandelt verschiedene Themen, darunter:

    +
      +
    • Verwendung verschiedener TTS-Motoren
    • +
    • Umgang mit mehrsprachigem Text
    • +
    • Leistungsoptimierung
    • +
    • Fehlerbehebung bei häufigen Problemen
    • +
    +

    Für genauere Informationen besuchen Sie bitte den obigen Link.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/de/index.html b/ko/de/index.html new file mode 100755 index 0000000..f86793d --- /dev/null +++ b/ko/de/index.html @@ -0,0 +1,1864 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +
      +
    • Einfach zu verwendende Text-to-Speech-Bibliothek mit geringer Latenz für Echtzeitanwendungen*
    • +
    +

    Über das Projekt

    +

    RealtimeTTS ist eine hochmoderne Text-to-Speech-Bibliothek (TTS), die für Echtzeitanwendungen entwickelt wurde. Es zeichnet sich durch seine Fähigkeit aus, Textströme schnell in hochwertige Hörausgaben mit minimaler Latenz umzuwandeln.

    +

    Hauptmerkmale

    +
      +
    • Niedrige Latenz: nahezu sofortige Text-zu-Sprache-Konvertierung, kompatibel mit LLM-Ausgaben
    • +
    • High-Quality Audio: erzeugt klare und natürlich klingende Sprache
    • +
    • Multiple TTS Engine Support: unterstützt OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS und System TTS
    • +
    • Mehrsprachig
    • +
    • Robust und zuverlässig: sorgt für einen kontinuierlichen Betrieb durch einen Rückfallmechanismus und wechselt bei Störungen zu alternativen Motoren, die eine gleichbleibende Leistung und Zuverlässigkeit gewährleisten
    • +
    +

    Für Installationsanweisungen, Nutzungsbeispiele und API-Referenzen navigieren Sie bitte über die Seitenleiste durch die Dokumentation.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/de/installation/index.html b/ko/de/installation/index.html new file mode 100755 index 0000000..aa10bc0 --- /dev/null +++ b/ko/de/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Deutsch

    + +
    +

    Hinweis: Die Basisinstallation mit pip install realtimetts wird nicht mehr empfohlen. Verwenden Sie stattdessen pip install realtimetts[all].

    +
    +

    Die RealtimeTTS-Bibliothek bietet verschiedene Installationsoptionen für Abhängigkeiten je nach Anwendungsfall. Hier sind die verschiedenen Möglichkeiten, RealtimeTTS entsprechend Ihren Anforderungen zu installieren:

    +

    Vollständige Installation

    +

    Um RealtimeTTS mit Unterstützung für alle TTS-Engines zu installieren:

    +
    pip install -U realtimetts[all]
    +
    +

    Benutzerdefinierte Installation

    +

    RealtimeTTS ermöglicht eine benutzerdefinierte Installation mit minimalen Bibliotheksinstallationen. Folgende Optionen stehen zur Verfügung: +- all: Vollständige Installation mit Unterstützung aller Engines. +- system: Enthält systemspezifische TTS-Fähigkeiten (z.B. pyttsx3). +- azure: Fügt Azure Cognitive Services Speech-Unterstützung hinzu. +- elevenlabs: Enthält Integration mit der ElevenLabs API. +- openai: Für OpenAI-Sprachdienste. +- gtts: Google Text-to-Speech-Unterstützung. +- coqui: Installiert die Coqui TTS-Engine. +- minimal: Installiert nur die Basisanforderungen ohne Engine (nur erforderlich, wenn Sie eine eigene Engine entwickeln möchten)

    +

    Wenn Sie RealtimeTTS nur für die lokale neuronale Coqui TTS-Nutzung installieren möchten, verwenden Sie:

    +
    pip install realtimetts[coqui]
    +
    +

    Wenn Sie beispielsweise RealtimeTTS nur mit Azure Cognitive Services Speech, ElevenLabs und OpenAI-Unterstützung installieren möchten:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installation in virtueller Umgebung

    +

    Für diejenigen, die eine vollständige Installation in einer virtuellen Umgebung durchführen möchten, folgen Sie diesen Schritten:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Weitere Informationen zur CUDA-Installation.

    +

    Engine-Anforderungen

    +

    Verschiedene von RealtimeTTS unterstützte Engines haben spezifische Anforderungen. Stellen Sie sicher, dass Sie diese Anforderungen je nach gewählter Engine erfüllen.

    +

    SystemEngine

    +

    Die SystemEngine funktioniert von Haus aus mit den integrierten TTS-Fähigkeiten Ihres Systems. Keine zusätzliche Einrichtung erforderlich.

    +

    GTTSEngine

    +

    Die GTTSEngine funktioniert von Haus aus mit der Google Translate Text-to-Speech API. Keine zusätzliche Einrichtung erforderlich.

    +

    OpenAIEngine

    +

    Zur Verwendung der OpenAIEngine: +- Umgebungsvariable OPENAI_API_KEY setzen +- ffmpeg installieren (siehe CUDA-Installation Punkt 3)

    +

    AzureEngine

    +

    Für die Verwendung der AzureEngine benötigen Sie: +- Microsoft Azure Text-to-Speech API-Schlüssel (bereitgestellt über den AzureEngine-Konstruktorparameter "speech_key" oder in der Umgebungsvariable AZURE_SPEECH_KEY) +- Microsoft Azure Service-Region

    +

    Stellen Sie sicher, dass diese Anmeldedaten verfügbar und korrekt konfiguriert sind, wenn Sie die AzureEngine initialisieren.

    +

    ElevenlabsEngine

    +

    Für die ElevenlabsEngine benötigen Sie: +- Elevenlabs API-Schlüssel (bereitgestellt über den ElevenlabsEngine-Konstruktorparameter "api_key" oder in der Umgebungsvariable ELEVENLABS_API_KEY) +- mpv auf Ihrem System installiert (wesentlich für das Streaming von MPEG-Audio, Elevenlabs liefert nur MPEG)

    +

    🔹 Installation von mpv: + - macOS: + brew install mpv

    +
      +
    • Linux und Windows: Besuchen Sie mpv.io für Installationsanweisungen.
    • +
    +

    CoquiEngine

    +

    Bietet hochwertige, lokale, neuronale TTS mit Stimmklonen.

    +

    Lädt zuerst ein neurales TTS-Modell herunter. In den meisten Fällen ist es mit GPU-Synthese schnell genug für Echtzeit. Benötigt etwa 4-5 GB VRAM.

    +
      +
    • Um eine Stimme zu klonen, übergeben Sie den Dateinamen einer Wave-Datei, die die Quellstimme enthält, als "voice"-Parameter an den CoquiEngine-Konstruktor
    • +
    • Stimmklonen funktioniert am besten mit einer 22050 Hz Mono 16bit WAV-Datei, die eine kurze (~5-30 Sek.) Probe enthält
    • +
    +

    Auf den meisten Systemen wird GPU-Unterstützung benötigt, um schnell genug für Echtzeit zu sein, andernfalls werden Sie Stottern erleben.

    +

    CUDA-Installation

    +

    Diese Schritte werden für diejenigen empfohlen, die bessere Leistung benötigen und eine kompatible NVIDIA GPU haben.

    +
    +

    Hinweis: Um zu überprüfen, ob Ihre NVIDIA GPU CUDA unterstützt, besuchen Sie die offizielle CUDA GPUs-Liste.

    +
    +

    Um torch mit CUDA-Unterstützung zu verwenden, folgen Sie bitte diesen Schritten:

    +
    +

    Hinweis: Neuere PyTorch-Installationen könnten (unbestätigt) keine Toolkit (und möglicherweise cuDNN) Installation mehr benötigen.

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkit installieren: + Um beispielsweise Toolkit 12.X zu installieren:

      +
        +
      • Besuchen Sie NVIDIA CUDA Downloads.
      • +
      • Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version.
      • +
      • Laden Sie die Software herunter und installieren Sie sie.
      • +
      +

      oder um Toolkit 11.8 zu installieren: +- Besuchen Sie NVIDIA CUDA Toolkit Archive. +- Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version. +- Laden Sie die Software herunter und installieren Sie sie.

      +
    2. +
    3. +

      NVIDIA cuDNN installieren:

      +

      Um beispielsweise cuDNN 8.7.0 für CUDA 11.x zu installieren: +- Besuchen Sie NVIDIA cuDNN Archive. +- Klicken Sie auf "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Laden Sie die Software herunter und installieren Sie sie.

      +
    4. +
    5. +

      ffmpeg installieren:

      +

      Sie können einen Installer für Ihr Betriebssystem von der ffmpeg Website herunterladen.

      +

      Oder verwenden Sie einen Paketmanager:

      +
        +
      • +

        Unter Ubuntu oder Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Unter Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Unter MacOS mit Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Unter Windows mit Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Unter Windows mit Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      PyTorch mit CUDA-Unterstützung installieren:

      +

      Um Ihre PyTorch-Installation zu aktualisieren und GPU-Unterstützung mit CUDA zu aktivieren, folgen Sie diesen Anweisungen basierend auf Ihrer spezifischen CUDA-Version. Dies ist nützlich, wenn Sie die Leistung von RealtimeSTT mit CUDA-Fähigkeiten verbessern möchten.

      +
        +
      • +

        Für CUDA 11.8:

        +

        Um PyTorch und Torchaudio für CUDA 11.8-Unterstützung zu aktualisieren, verwenden Sie folgende Befehle:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Für CUDA 12.X:

        +

        Um PyTorch und Torchaudio für CUDA 12.X-Unterstützung zu aktualisieren, führen Sie Folgendes aus:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Ersetzen Sie 2.3.1 durch die Version von PyTorch, die Ihrem System und Ihren Anforderungen entspricht.

      +
    8. +
    9. +

      Behebung von Kompatibilitätsproblemen: + Wenn Sie auf Bibliotheks-Kompatibilitätsprobleme stoßen, versuchen Sie, diese Bibliotheken auf feste Versionen zu setzen:

      +
    10. +
    +

    `

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    `

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/de/usage/index.html b/ko/de/usage/index.html new file mode 100755 index 0000000..11aa52c --- /dev/null +++ b/ko/de/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Verwendung

    +

    Schnellstart

    +

    Hier ist ein grundlegendes Beispiel:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # ersetzen Sie dies mit Ihrer TTS-Engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Text Einspeisung

    +

    Sie können einzelne Zeichenketten einspeisen:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oder Sie können Generatoren und Zeichen-Iteratoren für Echtzeit-Streaming verwenden:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Wiedergabe

    +

    Asynchron:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchron:

    +
    stream.play()
    +
    +

    Testen der Bibliothek

    +

    Das Test-Unterverzeichnis enthält eine Reihe von Skripten, die Ihnen helfen, die Fähigkeiten der RealtimeTTS-Bibliothek zu bewerten und zu verstehen.

    +

    Beachten Sie, dass die meisten Tests noch auf der "alten" OpenAI API (<1.0.0) basieren. Die Verwendung der neuen OpenAI API wird in openai_1.0_test.py demonstriert.

    +
      +
    • +

      simple_test.py

      +
        +
      • Beschreibung: Eine "Hello World"-ähnliche Demonstration der einfachsten Bibliotheksnutzung.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Beschreibung: Eine umfassende Demonstration der meisten Funktionen der Bibliothek.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Beschreibung: Test der lokalen Coqui TTS-Engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Echtzeitübersetzungen in sechs verschiedene Sprachen.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Durch Aktivierungswort gesteuerte und sprachbasierte Benutzeroberfläche für die OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai keyboard realtimestt aus.
      • +
      • Beschreibung: Wählen Sie TTS-Engine und Stimme vor Beginn der KI-Konversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Ein grundlegender Sprachbot in 20 Codezeilen.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Einfache Demonstration der Integration der Bibliothek mit Large Language Models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Zeigt die Callbacks und lässt Sie die Latenzzeiten in einer realen Anwendungsumgebung überprüfen.
      • +
      +
    • +
    +

    Pause, Fortsetzen & Stoppen

    +

    Audiostream pausieren:

    +
    stream.pause()
    +
    +

    Pausierten Stream fortsetzen:

    +
    stream.resume()
    +
    +

    Stream sofort stoppen:

    +
    stream.stop()
    +
    +

    Erläuterung der Anforderungen

    +
      +
    • Python Version:
    • +
    • Erforderlich: Python >= 3.9, < 3.13
    • +
    • +

      Grund: Die Bibliothek hängt von der GitHub-Bibliothek "TTS" von Coqui ab, die Python-Versionen in diesem Bereich erfordert.

      +
    • +
    • +

      PyAudio: zur Erstellung eines Audio-Ausgabestreams

      +
    • +
    • +

      stream2sentence: zum Aufteilen des eingehenden Textstreams in Sätze

      +
    • +
    • +

      pyttsx3: System Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      pydub: zur Konvertierung von Audio-Chunk-Formaten

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS Text-to-Speech Bibliothek für hochwertige lokale neuronale TTS

      +
    • +
    +

    Dank an das Idiap Research Institute für die Pflege eines Forks von Coqui TTS.

    +
      +
    • +

      openai: zur Interaktion mit der OpenAI TTS API

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech Konvertierung

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/en/api/index.html b/ko/en/api/index.html new file mode 100755 index 0000000..11b5dca --- /dev/null +++ b/ko/en/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    English

    + +

    Configuration

    +

    Initialization Parameters for TextToAudioStream

    +

    When you initialize the TextToAudioStream class, you have various options to customize its behavior. Here are the available parameters:

    +

    engine (BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Required: Yes
    • +
    • Description: The underlying engine responsible for text-to-audio synthesis. You must provide an instance of BaseEngine or its subclass to enable audio synthesis.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is triggered when the text stream begins. Use it for any setup or logging you may need.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is activated when the text stream ends. You can use this for cleanup tasks or logging.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is invoked when the audio stream starts. Useful for UI updates or event logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when the audio stream stops. Ideal for resource cleanup or post-processing tasks.
    • +
    +

    on_character (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when a single character is processed.
    • +
    +

    output_device_index (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: None
    • +
    • Description: Specifies the output device index to use. None uses the default device.
    • +
    +

    tokenizer (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: nltk
    • +
    • Description: Tokenizer to use for sentence splitting (currently "nltk" and "stanza" are supported).
    • +
    +

    language (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: en
    • +
    • Description: Language to use for sentence splitting.
    • +
    +

    muted (bool)

    +
      +
    • Type: Bool
    • +
    • Required: No
    • +
    • Default: False
    • +
    • Description: Global muted parameter. If True, no pyAudio stream will be opened. Disables audio playback via local speakers (in case you want to synthesize to file or process audio chunks) and overrides the play parameters muted setting.
    • +
    +

    level (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: logging.WARNING
    • +
    • Description: Sets the logging level for the internal logger. This can be any integer constant from Python's built-in logging module.
    • +
    +

    Example Usage:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methods

    +

    play and play_async

    +

    These methods are responsible for executing the text-to-audio synthesis and playing the audio stream. The difference is that play is a blocking function, while play_async runs in a separate thread, allowing other operations to proceed.

    +
    Parameters:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Description: When set to True, the method will prioritize speed, generating and playing sentence fragments faster. This is useful for applications where latency matters.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, applies the fast sentence fragment processing to all sentences, not just the first one.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, allows yielding multiple sentence fragments instead of just a single one.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Description: Specifies the time in seconds for the buffering threshold, which impacts the smoothness and continuity of audio playback.

      +
    • +
    • +

      How it Works: Before synthesizing a new sentence, the system checks if there is more audio material left in the buffer than the time specified by buffer_threshold_seconds. If so, it retrieves another sentence from the text generator, assuming that it can fetch and synthesize this new sentence within the time window provided by the remaining audio in the buffer. This process allows the text-to-speech engine to have more context for better synthesis, enhancing the user experience.

      +
    • +
    +

    A higher value ensures that there's more pre-buffered audio, reducing the likelihood of silence or gaps during playback. If you experience breaks or pauses, consider increasing this value.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Description: Sets the minimum character length to consider a string as a sentence to be synthesized. This affects how text chunks are processed and played.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Description: The minimum number of characters required for the first sentence fragment before yielding.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Description: When enabled, logs the text chunks as they are synthesized into audio. Helpful for auditing and debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Description: If True, reset the generated text before processing.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Description: If set, save the audio to the specified WAV file.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called after a single sentence fragment was synthesized.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called before a single sentence fragment gets synthesized.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Description: Callback function that gets called when a single audio chunk is ready.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Description: Tokenizer to use for sentence splitting. Currently supports "nltk" and "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Description: A custom function that tokenizes sentences from the input text. You can provide your own lightweight tokenizer if you are unhappy with nltk and stanza. It should take text as a string and return split sentences as a list of strings.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Description: Language to use for sentence splitting.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Description: The number of characters used to establish context for sentence boundary detection. A larger context improves the accuracy of detecting sentence boundaries.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Description: Additional context size for looking ahead when detecting sentence boundaries.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Description: If True, disables audio playback via local speakers. Useful when you want to synthesize to a file or process audio chunks without playing them.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Description: A string of characters that are considered sentence delimiters.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Description: The number of words after which the first sentence fragment is forced to be yielded.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/en/contributing/index.html b/ko/en/contributing/index.html new file mode 100755 index 0000000..24375fd --- /dev/null +++ b/ko/en/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contributing to RealtimeTTS

    +

    We welcome contributions to RealtimeTTS! Here are some ways you can contribute:

    +
      +
    1. +

      Reporting Bugs: If you find a bug, please open an issue on our GitHub repository.

      +
    2. +
    3. +

      Suggesting Enhancements: Have ideas for new features or improvements? We'd love to hear them! Open an issue to suggest enhancements.

      +
    4. +
    5. +

      Code Contributions: Want to add a new feature or fix a bug? Great! Please follow these steps:

      +
    6. +
    7. Fork the repository
    8. +
    9. Create a new branch for your feature
    10. +
    11. Make your changes
    12. +
    13. +

      Submit a pull request with a clear description of your changes

      +
    14. +
    15. +

      Documentation: Help us improve our documentation by fixing typos, adding examples, or clarifying confusing sections.

      +
    16. +
    17. +

      Adding New Engines: If you want to add support for a new TTS engine, please open an issue first to discuss the implementation.

      +
    18. +
    +

    Thank you for helping make RealtimeTTS better!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/en/faq/index.html b/ko/en/faq/index.html new file mode 100755 index 0000000..a8b110f --- /dev/null +++ b/ko/en/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Frequently Asked Questions

    +

    For answers to frequently asked questions about RealtimeTTS, please refer to our FAQ page on GitHub.

    +

    This page covers various topics including:

    +
      +
    • Usage of different TTS engines
    • +
    • Handling of multilingual text
    • +
    • Performance optimization
    • +
    • Troubleshooting common issues
    • +
    +

    For more detailed information, please visit the link above.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/en/index.html b/ko/en/index.html new file mode 100755 index 0000000..4756ec0 --- /dev/null +++ b/ko/en/index.html @@ -0,0 +1,1934 @@ + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Easy to use, low-latency text-to-speech library for realtime applications

    +

    About the Project

    +

    RealtimeTTS is a state-of-the-art text-to-speech (TTS) library designed for real-time applications. It stands out in its ability to convert text streams fast into high-quality auditory output with minimal latency.

    +

    Key Features

    +
      +
    • Low Latency: almost instantaneous text-to-speech conversion, compatible with LLM outputs
    • +
    • High-Quality Audio: generates clear and natural-sounding speech
    • +
    • Multiple TTS Engine Support: supports OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS and System TTS
    • +
    • Multilingual
    • +
    • Robust and Reliable: ensures continuous operation through a fallback mechanism, switches to alternative engines in case of disruptions guaranteeing consistent performance and reliability
    • +
    +

    For installation instructions, usage examples, and API reference, please navigate through the documentation using the sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/en/installation/index.html b/ko/en/installation/index.html new file mode 100755 index 0000000..eeb20d3 --- /dev/null +++ b/ko/en/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    English

    + +
    +

    Note: Basic Installation with pip install realtimetts is not recommended anymore, use pip install realtimetts[all] instead.

    +
    +

    The RealtimeTTS library provides installation options for various dependencies for your use case. Here are the different ways you can install RealtimeTTS depending on your needs:

    +

    Full Installation

    +

    To install RealtimeTTS with support for all TTS engines:

    +
    pip install -U realtimetts[all]
    +
    +

    Custom Installation

    +

    RealtimeTTS allows for custom installation with minimal library installations. Here are the options available: +- all: Full installation with every engine supported. +- system: Includes system-specific TTS capabilities (e.g., pyttsx3). +- azure: Adds Azure Cognitive Services Speech support. +- elevenlabs: Includes integration with ElevenLabs API. +- openai: For OpenAI voice services. +- gtts: Google Text-to-Speech support. +- coqui: Installs the Coqui TTS engine. +- minimal: Installs only the base requirements with no engine (only needed if you want to develop an own engine)

    +

    Say you want to install RealtimeTTS only for local neuronal Coqui TTS usage, then you should use:

    +
    pip install realtimetts[coqui]
    +
    +

    For example, if you want to install RealtimeTTS with only Azure Cognitive Services Speech, ElevenLabs, and OpenAI support:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Virtual Environment Installation

    +

    For those who want to perform a full installation within a virtual environment, follow these steps:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    More information about CUDA installation.

    +

    Engine Requirements

    +

    Different engines supported by RealtimeTTS have unique requirements. Ensure you fulfill these requirements based on the engine you choose.

    +

    SystemEngine

    +

    The SystemEngine works out of the box with your system's built-in TTS capabilities. No additional setup is needed.

    +

    GTTSEngine

    +

    The GTTSEngine works out of the box using Google Translate's text-to-speech API. No additional setup is needed.

    +

    OpenAIEngine

    +

    To use the OpenAIEngine: +- set environment variable OPENAI_API_KEY +- install ffmpeg (see CUDA installation point 3)

    +

    AzureEngine

    +

    To use the AzureEngine, you will need: +- Microsoft Azure Text-to-Speech API key (provided via AzureEngine constructor parameter "speech_key" or in the environment variable AZURE_SPEECH_KEY) +- Microsoft Azure service region.

    +

    Make sure you have these credentials available and correctly configured when initializing the AzureEngine.

    +

    ElevenlabsEngine

    +

    For the ElevenlabsEngine, you need: +- Elevenlabs API key (provided via ElevenlabsEngine constructor parameter "api_key" or in the environment variable ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 Installing mpv: + - macOS: + brew install mpv

    +
      +
    • Linux and Windows: Visit mpv.io for installation instructions.
    • +
    +

    CoquiEngine

    +

    Delivers high quality, local, neural TTS with voice-cloning.

    +

    Downloads a neural TTS model first. In most cases it be fast enough for Realtime using GPU synthesis. Needs around 4-5 GB VRAM.

    +
      +
    • to clone a voice submit the filename of a wave file containing the source voice as "voice" parameter to the CoquiEngine constructor
    • +
    • voice cloning works best with a 22050 Hz mono 16bit WAV file containing a short (~5-30 sec) sample
    • +
    +

    On most systems GPU support will be needed to run fast enough for realtime, otherwise you will experience stuttering.

    +

    CUDA installation

    +

    These steps are recommended for those who require better performance and have a compatible NVIDIA GPU.

    +
    +

    Note: to check if your NVIDIA GPU supports CUDA, visit the official CUDA GPUs list.

    +
    +

    To use a torch with support via CUDA please follow these steps:

    +
    +

    Note: newer pytorch installations may (unverified) not need Toolkit (and possibly cuDNN) installation anymore.

    +
    +
      +
    1. +

      Install NVIDIA CUDA Toolkit: + For example, to install Toolkit 12.X, please

      +
        +
      • Visit NVIDIA CUDA Downloads.
      • +
      • Select your operating system, system architecture, and os version.
      • +
      • Download and install the software.
      • +
      +

      or to install Toolkit 11.8, please +- Visit NVIDIA CUDA Toolkit Archive. +- Select your operating system, system architecture, and os version. +- Download and install the software.

      +
    2. +
    3. +

      Install NVIDIA cuDNN:

      +

      For example, to install cuDNN 8.7.0 for CUDA 11.x please +- Visit NVIDIA cuDNN Archive. +- Click on "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Download and install the software.

      +
    4. +
    5. +

      Install ffmpeg:

      +

      You can download an installer for your OS from the ffmpeg Website.

      +

      Or use a package manager:

      +
        +
      • +

        On Ubuntu or Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        On Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        On MacOS using Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        On Windows using Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        On Windows using Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Install PyTorch with CUDA support:

      +

      To upgrade your PyTorch installation to enable GPU support with CUDA, follow these instructions based on your specific CUDA version. This is useful if you wish to enhance the performance of RealtimeSTT with CUDA capabilities.

      +
        +
      • +

        For CUDA 11.8:

        +

        To update PyTorch and Torchaudio to support CUDA 11.8, use the following commands:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        For CUDA 12.X:

        +

        To update PyTorch and Torchaudio to support CUDA 12.X, execute the following:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Replace 2.3.1 with the version of PyTorch that matches your system and requirements.

      +
    8. +
    9. +

      Fix for to resolve compatibility issues: + If you run into library compatibility issues, try setting these libraries to fixed versions:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/en/usage/index.html b/ko/en/usage/index.html new file mode 100755 index 0000000..2b12d01 --- /dev/null +++ b/ko/en/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Usage

    +

    Quick Start

    +

    Here's a basic usage example:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Feed Text

    +

    You can feed individual strings:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Or you can feed generators and character iterators for real-time streaming:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Playback

    +

    Asynchronously:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchronously:

    +
    stream.play()
    +
    +

    Testing the Library

    +

    The test subdirectory contains a set of scripts to help you evaluate and understand the capabilities of the RealtimeTTS library.

    +

    Note that most of the tests still rely on the "old" OpenAI API (<1.0.0). Usage of the new OpenAI API is demonstrated in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description: A "hello world" styled demonstration of the library's simplest usage.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description: A comprehensive demonstration showcasing most of the features provided by the library.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description: Test of local coqui TTS engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Real-time translations into six different languages.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Wake word activated and voice based user interface to the OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencies: Run pip install openai keyboard realtimestt.
      • +
      • Description: Choose TTS engine and voice before starting AI conversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: A basic talkbot in 20 lines of code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Simple demonstration of how to integrate the library with large language models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Showcases the callbacks and lets you check the latency times in a real-world application environment.
      • +
      +
    • +
    +

    Pause, Resume & Stop

    +

    Pause the audio stream:

    +
    stream.pause()
    +
    +

    Resume a paused stream:

    +
    stream.resume()
    +
    +

    Stop the stream immediately:

    +
    stream.stop()
    +
    +

    Requirements Explained

    +
      +
    • Python Version:
    • +
    • Required: Python >= 3.9, < 3.13
    • +
    • +

      Reason: The library depends on the GitHub library "TTS" from coqui, which requires Python versions in this range.

      +
    • +
    • +

      PyAudio: to create an output audio stream

      +
    • +
    • +

      stream2sentence: to split the incoming text stream into sentences

      +
    • +
    • +

      pyttsx3: System text-to-speech conversion engine

      +
    • +
    • +

      pydub: to convert audio chunk formats

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure text-to-speech conversion engine

      +
    • +
    • +

      elevenlabs: Elevenlabs text-to-speech conversion engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS text-to-speech library for high-quality local neural TTS

      +
    • +
    +

    Shoutout to Idiap Research Institute for maintaining a fork of coqui tts.

    +
      +
    • +

      openai: to interact with OpenAI's TTS API

      +
    • +
    • +

      gtts: Google translate text-to-speech conversion

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/es/api/index.html b/ko/es/api/index.html new file mode 100755 index 0000000..d2674bd --- /dev/null +++ b/ko/es/api/index.html @@ -0,0 +1,2922 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    TextToAudioStream - Documentación en Español

    +

    Configuración

    +

    Parámetros de Inicialización para TextToAudioStream

    +

    Cuando inicializa la clase TextToAudioStream, tiene varias opciones para personalizar su comportamiento. Aquí están los parámetros disponibles:

    +

    Parámetros Principales

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Requerido: Sí
    • +
    • Descripción: El motor subyacente responsable de la síntesis de texto a audio. Debe proporcionar una instancia de BaseEngine o su subclase para habilitar la síntesis de audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando comienza el flujo de texto. Utilícela para cualquier configuración o registro que pueda necesitar.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando finaliza el flujo de texto. Puede utilizarla para tareas de limpieza o registro.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se invoca cuando comienza el flujo de audio. Útil para actualizaciones de UI o registro de eventos.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se detiene el flujo de audio. Ideal para limpieza de recursos o tareas de post-procesamiento.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se procesa un solo carácter.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: None
    • +
    • Descripción: Especifica el índice del dispositivo de salida a utilizar. None usa el dispositivo predeterminado.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: nltk
    • +
    • Descripción: Tokenizador a utilizar para la división de oraciones (actualmente se admiten "nltk" y "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: en
    • +
    • Descripción: Idioma a utilizar para la división de oraciones.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Requerido: No
    • +
    • Valor predeterminado: False
    • +
    • Descripción: Parámetro global de silencio. Si es True, no se abrirá ningún flujo pyAudio. Deshabilita la reproducción de audio a través de los altavoces locales.
    • +
    +

    level (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: logging.WARNING
    • +
    • Descripción: Establece el nivel de registro para el registrador interno. Puede ser cualquier constante entera del módulo logging incorporado de Python.
    • +
    +

    Ejemplo de Uso

    +
    engine = YourEngine()  # Sustituya con su motor
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Métodos

    +

    play y play_async

    +

    Estos métodos son responsables de ejecutar la síntesis de texto a audio y reproducir el flujo de audio. La diferencia es que play es una función bloqueante, mientras que play_async se ejecuta en un hilo separado, permitiendo que otras operaciones continúen.

    +

    Parámetros de Reproducción

    +

    fast_sentence_fragment (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Cuando se establece en True, el método priorizará la velocidad, generando y reproduciendo fragmentos de oraciones más rápidamente.
    • +
    +

    fast_sentence_fragment_allsentences (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, aplica el procesamiento rápido de fragmentos de oraciones a todas las oraciones.
    • +
    +

    fast_sentence_fragment_allsentences_multiple (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, permite generar múltiples fragmentos de oraciones.
    • +
    +

    buffer_threshold_seconds (float)

    +
      +
    • Valor predeterminado: 0.0
    • +
    • Descripción: Especifica el tiempo en segundos para el umbral de búfer.
    • +
    +

    Cómo funciona: Antes de sintetizar una nueva oración, el sistema verifica si queda más material de audio en el búfer que el tiempo especificado. Un valor más alto asegura que haya más audio pre-almacenado en el búfer.

    +

    minimum_sentence_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: Establece la longitud mínima de caracteres para considerar una cadena como una oración.
    • +
    +

    minimum_first_fragment_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: El número mínimo de caracteres requeridos para el primer fragmento de oración.
    • +
    +

    log_synthesized_text (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando está habilitado, registra los fragmentos de texto sintetizados.
    • +
    +

    reset_generated_text (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Si es True, reinicia el texto generado antes del procesamiento.
    • +
    +

    output_wavfile (str)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Si se establece, guarda el audio en el archivo WAV especificado.
    • +
    +

    Funciones de Callback

    +

    on_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama después de sintetizar un fragmento de oración.
    • +
    +

    before_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama antes de sintetizar un fragmento de oración.
    • +
    +

    on_audio_chunk (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama cuando un fragmento de audio está listo.
    • +
    +

    Configuración de Tokenización

    +

    tokenizer (str)

    +
      +
    • Valor predeterminado: "nltk"
    • +
    • Descripción: Tokenizador para la división de oraciones. Admite "nltk" y "stanza".
    • +
    +

    tokenize_sentences (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Función personalizada para tokenizar oraciones del texto de entrada.
    • +
    +

    language (str)

    +
      +
    • Valor predeterminado: "en"
    • +
    • Descripción: Idioma para la división de oraciones.
    • +
    +

    Parámetros de Contexto

    +

    context_size (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Caracteres utilizados para establecer el contexto de límites de oraciones.
    • +
    +

    context_size_look_overhead (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Tamaño de contexto adicional para mirar hacia adelante.
    • +
    +

    Otros Parámetros

    +

    muted (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Deshabilita la reproducción de audio local si es True.
    • +
    +

    sentence_fragment_delimiters (str)

    +
      +
    • Valor predeterminado: ".?!;:,\n…)]}。-"
    • +
    • Descripción: Caracteres considerados como delimitadores de oraciones.
    • +
    +

    force_first_fragment_after_words (int)

    +
      +
    • Valor predeterminado: 15
    • +
    • Descripción: Número de palabras después de las cuales se fuerza el primer fragmento.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/es/contributing/index.html b/ko/es/contributing/index.html new file mode 100755 index 0000000..1f9481d --- /dev/null +++ b/ko/es/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuir a RealtimeTTS

    +

    Agradecemos cualquier contribución a RealtimeTTS. Aquí tienes algunas formas de contribuir:

    +
      +
    1. +

      Informar de errores: Si encuentras un error, por favor abre una incidencia en nuestro repositorio GitHub.

      +
    2. +
    3. +

      Sugerir mejoras: ¿Tienes ideas para nuevas funciones o mejoras? Nos encantaría escucharlas. Abre una incidencia para sugerir mejoras.

      +
    4. +
    5. +

      Contribuciones de código: ¿Quieres añadir una nueva función o corregir un error? ¡Perfecto! Sigue estos pasos:

      +
    6. +
    7. Abre el repositorio
    8. +
    9. Crea una nueva rama para tu función
    10. +
    11. Realice los cambios
    12. +
    13. +

      Envía un pull request con una descripción clara de tus cambios

      +
    14. +
    15. +

      Documentación: Ayúdanos a mejorar nuestra documentación corrigiendo erratas, añadiendo ejemplos o aclarando secciones confusas.

      +
    16. +
    17. +

      Añadir nuevos motores: Si quieres añadir soporte para un nuevo motor TTS, por favor abre una incidencia primero para discutir la implementación.

      +
    18. +
    +

    Gracias por ayudarnos a mejorar RealtimeTTS.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/es/faq/index.html b/ko/es/faq/index.html new file mode 100755 index 0000000..a1d90dc --- /dev/null +++ b/ko/es/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Preguntas frecuentes

    +

    Para obtener respuestas a las preguntas más frecuentes sobre RealtimeTTS, consulta nuestra página de preguntas frecuentes en GitHub.

    +

    Esta página cubre varios temas, entre ellos

    +
      +
    • Uso de diferentes motores TTS
    • +
    • Tratamiento de textos multilingües
    • +
    • Optimización del rendimiento
    • +
    • Solución de problemas comunes
    • +
    +

    Para obtener información más detallada, visite el enlace anterior.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/es/index.html b/ko/es/index.html new file mode 100755 index 0000000..01a9ff0 --- /dev/null +++ b/ko/es/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    *Biblioteca de conversión de texto en voz fácil de usar y de baja latencia para aplicaciones en tiempo real.

    +

    Acerca del proyecto

    +

    RealtimeTTS es una biblioteca de texto a voz (TTS) de última generación diseñada para aplicaciones en tiempo real. Destaca por su capacidad para convertir rápidamente flujos de texto en salida auditiva de alta calidad con una latencia mínima.

    +

    Características principales

    +
      +
    • Baja latencia: conversión de texto a voz casi instantánea, compatible con salidas LLM.
    • +
    • Audio de alta calidad**: genera un habla clara y natural.
    • +
    • Compatible con múltiples motores TTS**: compatible con OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS y System TTS
    • +
    • Multilingüe
    • +
    • Robusto y fiable**: garantiza un funcionamiento continuo gracias a un mecanismo de reserva que cambia a motores alternativos en caso de interrupciones, lo que garantiza un rendimiento y una fiabilidad constantes.
    • +
    +

    Para obtener instrucciones de instalación, ejemplos de uso y referencias de la API, navegue por la documentación utilizando la barra lateral.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/es/installation/index.html b/ko/es/installation/index.html new file mode 100755 index 0000000..5e20d4d --- /dev/null +++ b/ko/es/installation/index.html @@ -0,0 +1,2243 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Español

    + +
    +

    Nota: Ya no se recomienda la instalación básica con pip install realtimetts, use pip install realtimetts[all] en su lugar.

    +
    +

    La biblioteca RealtimeTTS proporciona opciones de instalación para varias dependencias según su caso de uso. Aquí están las diferentes formas en que puede instalar RealtimeTTS según sus necesidades:

    +

    Instalación Completa

    +

    Para instalar RealtimeTTS con soporte para todos los motores de TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Instalación Personalizada

    +

    RealtimeTTS permite una instalación personalizada con instalaciones mínimas de bibliotecas. Estas son las opciones disponibles: +- all: Instalación completa con todos los motores soportados. +- system: Incluye capacidades de TTS específicas del sistema (por ejemplo, pyttsx3). +- azure: Agrega soporte para Azure Cognitive Services Speech. +- elevenlabs: Incluye integración con la API de ElevenLabs. +- openai: Para servicios de voz de OpenAI. +- gtts: Soporte para Google Text-to-Speech. +- coqui: Instala el motor Coqui TTS. +- minimal: Instala solo los requisitos base sin motor (solo necesario si desea desarrollar un motor propio)

    +

    Por ejemplo, si desea instalar RealtimeTTS solo para uso local de Coqui TTS neuronal, debe usar:

    +
    pip install realtimetts[coqui]
    +
    +

    Si desea instalar RealtimeTTS solo con Azure Cognitive Services Speech, ElevenLabs y soporte de OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Instalación en Entorno Virtual

    +

    Para aquellos que deseen realizar una instalación completa dentro de un entorno virtual, sigan estos pasos:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Más información sobre instalación de CUDA.

    +

    Requisitos de los Motores

    +

    Los diferentes motores soportados por RealtimeTTS tienen requisitos únicos. Asegúrese de cumplir con estos requisitos según el motor que elija.

    +

    SystemEngine

    +

    El SystemEngine funciona de inmediato con las capacidades de TTS incorporadas en su sistema. No se necesita configuración adicional.

    +

    GTTSEngine

    +

    El GTTSEngine funciona de inmediato usando la API de texto a voz de Google Translate. No se necesita configuración adicional.

    +

    OpenAIEngine

    +

    Para usar el OpenAIEngine: +- configure la variable de entorno OPENAI_API_KEY +- instale ffmpeg (ver instalación de CUDA punto 3)

    +

    AzureEngine

    +

    Para usar el AzureEngine, necesitará: +- Clave API de Microsoft Azure Text-to-Speech (proporcionada a través del parámetro "speech_key" del constructor AzureEngine o en la variable de entorno AZURE_SPEECH_KEY) +- Región de servicio de Microsoft Azure.

    +

    Asegúrese de tener estas credenciales disponibles y correctamente configuradas al inicializar el AzureEngine.

    +

    ElevenlabsEngine

    +

    Para el ElevenlabsEngine, necesita: +- Clave API de Elevenlabs (proporcionada a través del parámetro "api_key" del constructor ElevenlabsEngine o en la variable de entorno ELEVENLABS_API_KEY) +- mpv instalado en su sistema (esencial para transmitir audio mpeg, Elevenlabs solo entrega mpeg).

    +

    🔹 Instalación de mpv: + - macOS: + brew install mpv

    +
      +
    • Linux y Windows: Visite mpv.io para instrucciones de instalación.
    • +
    +

    CoquiEngine

    +

    Proporciona TTS neuronal local de alta calidad con clonación de voz.

    +

    Descarga primero un modelo neuronal TTS. En la mayoría de los casos, será lo suficientemente rápido para tiempo real usando síntesis GPU. Necesita alrededor de 4-5 GB de VRAM.

    +
      +
    • para clonar una voz, envíe el nombre del archivo de un archivo wave que contenga la voz fuente como parámetro "voice" al constructor CoquiEngine
    • +
    • la clonación de voz funciona mejor con un archivo WAV mono de 16 bits a 22050 Hz que contenga una muestra corta (~5-30 seg)
    • +
    +

    En la mayoría de los sistemas, se necesitará soporte de GPU para ejecutarse lo suficientemente rápido en tiempo real, de lo contrario experimentará tartamudeo.

    +

    Instalación de CUDA

    +

    Estos pasos son recomendados para aquellos que requieren mejor rendimiento y tienen una GPU NVIDIA compatible.

    +
    +

    Nota: para verificar si su GPU NVIDIA es compatible con CUDA, visite la lista oficial de GPUs CUDA.

    +
    +

    Para usar torch con soporte vía CUDA, siga estos pasos:

    +
    +

    Nota: las instalaciones más nuevas de pytorch pueden (no verificado) no necesitar la instalación de Toolkit (y posiblemente cuDNN).

    +
    +
      +
    1. +

      Instalar NVIDIA CUDA Toolkit: + Por ejemplo, para instalar Toolkit 12.X, por favor

      +
        +
      • Visite NVIDIA CUDA Downloads.
      • +
      • Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo.
      • +
      • Descargue e instale el software.
      • +
      +

      o para instalar Toolkit 11.8, por favor +- Visite NVIDIA CUDA Toolkit Archive. +- Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo. +- Descargue e instale el software.

      +
    2. +
    3. +

      Instalar NVIDIA cuDNN:

      +

      Por ejemplo, para instalar cuDNN 8.7.0 para CUDA 11.x por favor +- Visite NVIDIA cuDNN Archive. +- Haga clic en "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Descargue e instale el software.

      +
    4. +
    5. +

      Instalar ffmpeg:

      +

      Puede descargar un instalador para su sistema operativo desde el sitio web de ffmpeg.

      +

      O usar un gestor de paquetes:

      +
        +
      • +

        En Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        En Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        En MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        En Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        En Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Instalar PyTorch con soporte CUDA:

      +

      Para actualizar su instalación de PyTorch y habilitar el soporte de GPU con CUDA, siga estas instrucciones según su versión específica de CUDA. Esto es útil si desea mejorar el rendimiento de RealtimeSTT con capacidades CUDA.

      +
        +
      • +

        Para CUDA 11.8:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 11.8, use los siguientes comandos:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Para CUDA 12.X:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 12.X, ejecute lo siguiente:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Reemplace 2.3.1 con la versión de PyTorch que coincida con su sistema y requisitos.

      +
    8. +
    9. +

      Solución para resolver problemas de compatibilidad: + Si encuentra problemas de compatibilidad de bibliotecas, intente establecer estas bibliotecas en versiones fijas:

      +

      pip install networkx==2.8.8 +pip install typing_extensions==4.8.0 +pip install fsspec==2023.6.0 +pip install imageio==2.31.6 +pip install networkx==2.8.8 +pip install numpy==1.24.3 +pip install requests==2.31.0

      +
    10. +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/es/usage/index.html b/ko/es/usage/index.html new file mode 100755 index 0000000..5342c68 --- /dev/null +++ b/ko/es/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Uso

    +

    Inicio Rápido

    +

    Aquí hay un ejemplo básico de uso:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Alimentar Texto

    +

    Puede alimentar cadenas individuales:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    O puede alimentar generadores e iteradores de caracteres para la transmisión en tiempo real:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Reproducción

    +

    De forma asíncrona:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    De forma síncrona:

    +
    stream.play()
    +
    +

    Prueba de la Biblioteca

    +

    El subdirectorio de pruebas contiene un conjunto de scripts para ayudarte a evaluar y comprender las capacidades de la biblioteca RealtimeTTS.

    +

    Ten en cuenta que la mayoría de las pruebas aún dependen de la API "antigua" de OpenAI (<1.0.0). El uso de la nueva API de OpenAI se demuestra en openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descripción: Una demostración tipo "hola mundo" del uso más simple de la biblioteca.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descripción: Una demostración completa que muestra la mayoría de las características proporcionadas por la biblioteca.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descripción: Prueba del motor local coqui TTS.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Traducciones en tiempo real a seis idiomas diferentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Interfaz de usuario activada por palabra clave y basada en voz para la API de OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencias: Ejecutar pip install openai keyboard realtimestt.
      • +
      • Descripción: Elija el motor TTS y la voz antes de iniciar la conversación con IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Un talkbot básico en 20 líneas de código.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Demostración simple de cómo integrar la biblioteca con modelos de lenguaje grande (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Muestra los callbacks y te permite verificar los tiempos de latencia en un entorno de aplicación del mundo real.
      • +
      +
    • +
    +

    Pausar, Reanudar y Detener

    +

    Pausar el flujo de audio:

    +
    stream.pause()
    +
    +

    Reanudar un flujo pausado:

    +
    stream.resume()
    +
    +

    Detener el flujo inmediatamente:

    +
    stream.stop()
    +
    +

    Requisitos Explicados

    +
      +
    • Versión de Python:
    • +
    • Requerido: Python >= 3.9, < 3.13
    • +
    • +

      Razón: La biblioteca depende de la biblioteca GitHub "TTS" de coqui, que requiere versiones de Python en este rango.

      +
    • +
    • +

      PyAudio: para crear un flujo de audio de salida

      +
    • +
    • +

      stream2sentence: para dividir el flujo de texto entrante en oraciones

      +
    • +
    • +

      pyttsx3: Motor de conversión de texto a voz del sistema

      +
    • +
    • +

      pydub: para convertir formatos de fragmentos de audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motor de conversión de texto a voz de Azure

      +
    • +
    • +

      elevenlabs: Motor de conversión de texto a voz de Elevenlabs

      +
    • +
    • +

      coqui-TTS: Biblioteca de texto a voz XTTS de Coqui para TTS neuronal local de alta calidad

      +
    • +
    +

    Agradecimiento especial al Instituto de Investigación Idiap por mantener un fork de coqui tts.

    +
      +
    • +

      openai: para interactuar con la API TTS de OpenAI

      +
    • +
    • +

      gtts: Conversión de texto a voz de Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/faq/index.html b/ko/faq/index.html new file mode 100755 index 0000000..fe1cfd3 --- /dev/null +++ b/ko/faq/index.html @@ -0,0 +1,1856 @@ + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    자주 묻는 질문

    +

    RealtimeTTS에 대한 자주 묻는 질문에 대한 답변은 GitHub의 FAQ 페이지를 참조해 주세요.

    +

    이 페이지는 다음과 같은 다양한 주제를 다룹니다:

    +
      +
    • 다양한 TTS 엔진의 사용
    • +
    • 다국어 텍스트 처리
    • +
    • 성능 최적화
    • +
    • 일반적인 문제 해결
    • +
    +

    자세한 정보는 위의 링크를 방문해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/fr/api/index.html b/ko/fr/api/index.html new file mode 100755 index 0000000..97e86b0 --- /dev/null +++ b/ko/fr/api/index.html @@ -0,0 +1,2839 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Français

    + +

    Configuration

    +

    Paramètres d'initialisation pour `TextToAudioStream

    +

    Lorsque vous initialisez la classe TextToAudioStream, vous disposez de diverses options pour personnaliser son comportement. Voici les paramètres disponibles :

    +

    `(BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Obligatoire: Oui
    • +
    • Description : Le moteur sous-jacent responsable de la synthèse texte-audio. Vous devez fournir une instance de ine ou sa sous-classe pour permettre la synthèse audio.
    • +
    +

    _text_stream_start (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est déclenchée lorsque le flux de texte commence. Utilisez-le pour toute configuration ou journalisation dont vous pourriez avoir besoin.
    • +
    +

    _text_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est activée à la fin du flux de texte. Vous pouvez l'utiliser pour des tâches de nettoyage ou de journalisation.
    • +
    +

    _audio_stream_start` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel facultative est invoquée au démarrage du flux audio. Utile pour les mises à jour de l'interface utilisateur ou la journalisation des événements.
    • +
    +

    _audio_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsque le flux audio s'arrête. Idéal pour les tâches de nettoyage des ressources ou de post-traitement.
    • +
    +

    on_character` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsqu'un seul caractère est traité.
    • +
    +

    _device_index (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Aucun
    • +
    • Description : Spécifie l'index du périphérique de sortie à utiliser. Aucun n'utilise le périphérique par défaut.
    • +
    +

    (tokenizer(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: nltk
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases (actuellement « nltk » et « stroza » sont pris en charge).
    • +
    +

    `language(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: fr
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +

    muted(bool)

    +
      +
    • Type: Bool
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Faux
    • +
    • Description : Paramètre global coupé. Si True, aucun flux pyAudio ne sera ouvert. Désactive la lecture audio via des haut-parleurs locaux (au cas où vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio) et remplace le paramètre de mise en sourdine des paramètres de lecture.
    • +
    +

    level (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Défaut:logging.AVERTISSEMENT
    • +
    • Description : Définit le niveau de journalisation pour l'enregistreur interne. Cela peut être n'importe quelle constante entière du module ging intégré de Python.
    • +
    +

    Exemple d'utilisation :

    +

    ``(`python +moteur = YourEngine () # Remplacez-vous par votre moteur +flux = TextToAudioStream( + moteur=engine, + on_text_stream_start=my_text_start_func, + on_text_stream_stop=my_text_stop_func, + on_audio_stream_start=my_audio_start_func, + on_audio_stream_stop=my_audio_stop_func, + niveau=logging.INFO +)

    +

    Méthodes

    +

    play etplay_async`

    +

    Ces méthodes sont responsables de l'exécution de la synthèse texte-audio et de la lecture du flux audio. La différence est que play est une fonction de blocage, tandis que play_async s'exécute dans un thread séparé, permettant à d'autres opérations de se poursuivre.

    +
    Paramètres :
    +
    fast_sentence_fragment (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Lorsqu'elle est définie sur True, la méthode donnera la priorité à la vitesse, générant et jouant plus rapidement des fragments de phrases. Ceci est utile pour les applications où la latence est importante.
    • +
    +
    fast_sentence_fragment_allsentences(bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, applique le traitement rapide des fragments de phrase à toutes les phrases, pas seulement à la première.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, permet de produire plusieurs fragments de phrase au lieu d'un seul.
    • +
    +
    _threshold_seconds (flotteur)
    +
      +
    • Par défaut: 0.0
    • +
    • +

      Description : Spécifie le temps en secondes pour le seuil de mise en mémoire tampon, ce qui a un impact sur la douceur et la continuité de la lecture audio.

      +
    • +
    • +

      Comment ça marche : Avant de synthétiser une nouvelle phrase, le système vérifie s'il reste plus de matériel audio dans le tampon que le temps spécifié par buffer_threshold_seconds. Si tel est le cas, il récupère une autre phrase du générateur de texte, en supposant qu'il peut récupérer et synthétiser cette nouvelle phrase dans la fenêtre temporelle fournie par l'audio restant dans le tampon. Ce processus permet au moteur de synthèse vocale d'avoir plus de contexte pour une meilleure synthèse, améliorant ainsi l'expérience utilisateur.

      +
    • +
    +

    Une valeur plus élevée garantit qu'il y a plus d'audio pré-tamponné, réduisant ainsi le risque de silence ou de lacunes pendant la lecture. Si vous rencontrez des pauses ou des pauses, envisagez d'augmenter cette valeur.

    +
    _sentence_length (int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Définit la longueur minimale des caractères pour considérer une chaîne comme une phrase à synthétiser. Cela affecte la façon dont les morceaux de texte sont traités et lus.
    • +
    +
    _first_fragment_length(int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Le nombre minimum de caractères requis pour le premier fragment de phrase avant de céder.
    • +
    +
    _synthesized_text (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est activé, enregistre les morceaux de texte au fur et à mesure de leur synthèse en audio. Utile pour l'audit et le débogage.
    • +
    +
    #reset_generated_text` (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Si Vrai, réinitialisez le texte généré avant le traitement.
    • +
    +
    _wavfile (str)
    +
      +
    • Par défaut: None
    • +
    • Description : Si défini, enregistrez l'audio dans le fichier WAV spécifié.
    • +
    +
    `_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel appelée après un seul fragment de phrase a été synthétisée.
    • +
    +
    before`_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel qui est appelée avant qu'un seul fragment de phrase ne soit synthétisé.
    • +
    +
    _audio_chunk (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Fonction de rappel qui est appelée lorsqu'un seul morceau audio est prêt.
    • +
    +
    ```(str)
    +
      +
    • Par défaut:"nltk"
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases. Prend actuellement en charge « nltk » et « stroza ».
    • +
    +
    _sentences (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction personnalisée qui tokenise les phrases du texte saisi. Vous pouvez fournir votre propre tokenizer léger si vous n'êtes pas satisfait de nltk et stanza. Il doit prendre du texte comme chaîne et renvoyer des phrases divisées comme liste de chaînes.
    • +
    +
    angu(str)
    +
      +
    • Par défaut:"en"
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +
    _size(int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Le nombre de caractères utilisés pour établir le contexte pour la détection des limites de phrase. Un contexte plus large améliore la précision de la détection des limites des phrases.
    • +
    +
    _size_look_overhead (int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Taille de contexte supplémentaire pour regarder vers l'avenir lors de la détection des limites des phrases.
    • +
    +
    mute (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Si vrai, désactive la lecture audio via des haut-parleurs locaux. Utile lorsque vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio sans les lire.
    • +
    +
    ence_fragment_delimiters (str)
    +
      +
    • Par défaut:"?!;::\n...)]}-
    • +
    • Description : Une chaîne de caractères qui sont considérés comme des délimiteurs de phrases.
    • +
    +
    _first_fragment_after_words (int)
    +
      +
    • Par défaut: 15
    • +
    • Description : Le nombre de mots après lesquels le fragment de la première phrase est forcé d'être donné.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/fr/contributing/index.html b/ko/fr/contributing/index.html new file mode 100755 index 0000000..9df72c2 --- /dev/null +++ b/ko/fr/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuer à RealtimeTTS

    +

    Nous accueillons les contributions à RealtimeTTS ! Voici quelques façons dont vous pouvez contribuer :

    +
      +
    1. +

      Reporting Bugs : Si vous trouvez un bug, veuillez ouvrir un problème sur notre référentiel GitHub.

      +
    2. +
    3. +

      ** Suggestion d'améliorations** : Vous avez des idées de nouvelles fonctionnalités ou d'améliorations ? Nous serions ravis de les entendre ! Ouvrez un numéro pour suggérer des améliorations.

      +
    4. +
    5. +

      Code Contributions : Vous voulez ajouter une nouvelle fonctionnalité ou corriger un bug ? Super ! Veuillez suivre ces étapes :

      +
    6. +
    7. Fourcher le dépôt
    8. +
    9. Créez une nouvelle branche pour votre fonctionnalité
    10. +
    11. Faites vos changements
    12. +
    13. +

      Soumettez une demande pull avec une description claire de vos modifications

      +
    14. +
    15. +

      Documentation : Aidez-nous à améliorer notre documentation en corrigeant les fautes de frappe, en ajoutant des exemples ou en clarifiant les sections déroutantes.

      +
    16. +
    17. +

      Ajout de nouveaux moteurs : Si vous souhaitez ajouter la prise en charge d'un nouveau moteur TTS, veuillez d'abord ouvrir un numéro pour discuter de l'implémentation.

      +
    18. +
    +

    Merci d'avoir contribué à rendre RealtimeTTS meilleur !

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/fr/faq/index.html b/ko/fr/faq/index.html new file mode 100755 index 0000000..291a8a7 --- /dev/null +++ b/ko/fr/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Foire aux questions

    +

    Pour les réponses aux questions fréquemment posées sur RealtimeTTS, veuillez vous référer à notre page FAQ sur GitHub.

    +

    Cette page couvre divers sujets dont

    +
      +
    • Utilisation de différents moteurs TTS
    • +
    • Manipulation de textes multilingues
    • +
    • Optimisation des performances
    • +
    • Dépannage des problèmes courants
    • +
    +

    Pour des informations plus détaillées, veuillez consulter le lien ci-dessus.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/fr/index.html b/ko/fr/index.html new file mode 100755 index 0000000..ebe86d4 --- /dev/null +++ b/ko/fr/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Bibliothèque de synthèse vocale à faible latence et facile à utiliser pour les applications en temps réel

    +

    À propos du projet

    +

    RealtimeTTS est une bibliothèque de synthèse vocale (TTS) de pointe conçue pour les applications en temps réel. Elle se distingue par sa capacité à convertir des flux de texte en sortie auditive de haute qualité avec une latence minimale.

    +

    Caractéristiques clés

    +
      +
    • Faible latence : conversion text-to-speech quasi-instantanée, compatible avec les sorties LLM
    • +
    • Audio de haute qualité : génère un discours clair et naturel
    • +
    • Support de plusieurs moteurs TTS : prend en charge OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS et System TTS
    • +
    • Multilingue
    • +
    • Robuste et fiable : garantit une opération continue grâce à un mécanisme de fallback, bascule vers des moteurs alternatifs en cas de perturbations, garantissant une performance et une fiabilité cohérentes
    • +
    +

    Pour les instructions d'installation, les exemples d'utilisation et la référence de l'API, veuillez naviguer à travers la documentation à l'aide du sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/fr/installation/index.html b/ko/fr/installation/index.html new file mode 100755 index 0000000..d76ad42 --- /dev/null +++ b/ko/fr/installation/index.html @@ -0,0 +1,2270 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Français

    + +
    +

    Remarque: Installation de base avec pip install realtimettss n'est plus recommandé, utilisez pip install realtimetts[all] à la place.

    +
    +

    La bibliothèque RealtimeTTS offre des options d'installation pour diverses dépendances pour votre cas d'utilisation. Voici les différentes façons dont vous pouvez installer RealtimeTTS en fonction de vos besoins :

    +

    Installation complète

    +

    Pour installer RealtimeTTS avec prise en charge de tous les moteurs TTS :

    +

    pip install -U realtimetts [tous]

    +

    Installation personnalisée

    +

    RealtimeTTS permet une installation personnalisée avec un minimum d'installations de bibliothèque. Voici les options disponibles : +- all : Installation complète avec chaque moteur pris en charge. +- ** système : Inclut les capacités TTS spécifiques au système (par exemple, pyttsx3). +- azure : ajoute le support vocal Azure Cognitive Services. +- elevenlabs : Comprend l'intégration avec l'API ElevenLabs. +- openai : Pour les services vocaux OpenAI. +- gtts : Prise en charge de Google Text-to-Speech. +- coqui : Installe le moteur Coqui TTS. +- minimal** : installe uniquement les exigences de base sans moteur (nécessaire uniquement si vous souhaitez développer votre propre moteur)

    +

    Supposons que vous souhaitiez installer RealtimeTTS uniquement pour l'utilisation neuronale locale de Coqui TTS, vous devez alors utiliser :

    +

    pip installez realtimetts [coqui]

    +

    Par exemple, si vous souhaitez installer RealtimeTTS avec uniquement Azure Cognitive Services Speech, ElevenLabs et la prise en charge d'OpenAI :

    +

    pip installez realtimetts[azure,elevenlabs,openai]

    +

    Installation de l'environnement virtuel

    +

    Pour ceux qui souhaitent effectuer une installation complète dans un environnement virtuel, procédez comme suit

    +

    python - m venv env_realtimetts +env_realtimetts\Scripts\activate.bat +python.exe - m pip install - upgrade pip +pip install -U realtimetts [tous]

    +

    Plus d'informations sur installation CUDA.

    +

    Exigences du moteur

    +

    Différents moteurs pris en charge par RealtimeTTS ont des exigences uniques. Assurez-vous de remplir ces exigences en fonction du moteur que vous choisissez.

    +

    Moteur système

    +

    Le `SystemEngine fonctionne dès le départ avec les capacités TTS intégrées de votre système. Aucune configuration supplémentaire n'est nécessaire.

    +

    GTTSEngine

    +

    Le GTTSEngine fonctionne dès le départ à l'aide de l'API de synthèse vocale de Google Translate. Aucune configuration supplémentaire n'est nécessaire.

    +

    OpenAIEngine

    +

    Pour utiliser le ``(OpenAIE): +- définir la variable d'environnement OPENAI_API_KEY +- installer ffmpeg (voir installation CUDA point 3)

    +

    AzureEngine

    +

    Pour utiliser le ine, vous aurez besoin de : +- Clé API Microsoft Azure Text-to-Speech (fournie via le paramètre constructeur AzureEngine « speech_key » ou dans la variable d'environnement AZURE_SPEECH_KEY) +- Région de service Microsoft Azure.

    +

    Assurez-vous d'avoir ces informations d'identification disponibles et correctement configurées lors de l'initialisation du AzureEngine.

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    🔹 Installation v: + - macOS: + infuser installer mpv

    +
      +
    • Linux et Windows : Visitez mpv.io pour les instructions d'installation.
    • +
    +

    CoquiEngine

    +

    Offre un TTS neuronal local de haute qualité avec clonage vocal.

    +

    Télécharge d'abord un modèle TTS neuronal. Dans la plupart des cas, il est suffisamment rapide pour le temps réel utilisant la synthèse GPU. Nécessite environ 4 à 5 Go de VRAM.

    +
      +
    • pour cloner une voix, soumettez le nom de fichier d'un fichier d'onde contenant la voix source comme paramètre « voix » au constructeur CoquiEngine
    • +
    • le clonage vocal fonctionne mieux avec un fichier WAV mono 16 bits de 22 050 Hz contenant un échantillon court (~5 à 30 secondes)
    • +
    +

    Sur la plupart des systèmes, la prise en charge du GPU sera nécessaire pour fonctionner suffisamment rapidement en temps réel, sinon vous ferez l'expérience du bégaiement.

    +

    Installation CUDA

    +

    Ces étapes sont recommandées pour ceux qui ont besoin de ** meilleures performances ** et disposent d'un GPU NVIDIA compatible.

    +
    +

    Remarque : pour vérifier si votre GPU NVIDIA prend en charge CUDA, visitez la liste officielle des GPU CUDA.

    +
    +

    Pour utiliser une torche avec support via CUDA, veuillez suivre ces étapes :

    +
    +

    Remarque : les installations de pythorque plus récentes peuvent (non vérifié) n'ont plus besoin d'installation de Toolkit (et éventuellement de cuDNN).

    +
    +
      +
    1. +

      Installer NVIDIA CUDA Toolkit: + Par exemple, pour installer Toolkit 12.X, s'il te plaît

      +
        +
      • Visitez NVIDIA CUDA Téléchargements.
      • +
      • Sélectionnez votre système d'exploitation, votre architecture système et votre version os.
      • +
      • Téléchargez et installez le logiciel.
      • +
      +

      ou pour installer Toolkit 11.8, s'il vous plaît +- Visitez Archive de la boîte à outils CUDA NVIDIA. +- Sélectionnez votre système d'exploitation, votre architecture système et votre version os. +- Téléchargez et installez le logiciel.

      +
    2. +
    3. +

      Installer NVIDIA cuDNN:

      +

      Par exemple, pour installer cuDNN 8.7.0 pour CUDA 11. x s'il vous plaît +- Visitez NVIDIA cuDNN Archive. +- Cliquez sur « Télécharger cuDNN v8.7.0 (28 novembre 2022), pour CUDA 11.x ». +- Téléchargez et installez le logiciel.

      +
    4. +
    5. +

      Installer ffmpeg:

      +

      Vous pouvez télécharger un programme d'installation pour votre système d'exploitation à partir du site Web deffmpeg.

      +

      Ou utilisez un gestionnaire de packages :

      +
        +
      • +

        Sur Ubuntu ou Debian: + sudo apt update & & sudo apt install ffmpeg

        +
      • +
      • +

        Sur Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Sur MacOS utilisant Homebrew (https://brew.sh/): + infuser installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Chocolatey (https://chocolatey.org/): + choco installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Scoop (https://scoop.sh/): + scoop installer ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installez PyTorch avec le support CUDA :

      +

      Pour mettre à niveau votre installation PyTorch afin d'activer le support GPU avec CUDA, suivez ces instructions en fonction de votre version CUDA spécifique. Ceci est utile si vous souhaitez améliorer les performances de RealtimeSTT avec les capacités CUDA.

      +
        +
      • +

        Pour CUDA 11.8:

        +

        Pour mettre à jour PyTorch et Torchaudio afin de prendre en charge CUDA 11.8, utilisez les commandes suivantes :

        +

        pip installe torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Pour CUDA 12.X:

        +

        Pour mettre à jour PyTorch et Torchaudio pour prendre en charge CUDA 12.X, exécutez ce qui suit :

        +

        pip installe torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Remplacer ` of PyTorch that matching your system and requirements.

      +
    8. +
    9. +

      ** Correction pour résoudre les problèmes de compatibilité** : + Si vous rencontrez des problèmes de compatibilité de bibliothèque, essayez de définir ces bibliothèques sur des versions fixes :

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/fr/usage/index.html b/ko/fr/usage/index.html new file mode 100755 index 0000000..7290319 --- /dev/null +++ b/ko/fr/usage/index.html @@ -0,0 +1,2146 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Utilisation

    +

    Démarrage rapide

    +

    Voici un exemple d'utilisation de base :

    +

    ```(python +depuis RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine

    +

    moteur = SystemEngine () # remplacer par votre moteur TTS +flux = TextToAudioStream(moteur) +stream.feed("Bonjour le monde! Comment ça va aujourd'hui ?") +stream.play_async() +``

    +

    Flux Texte

    +

    Vous pouvez alimenter des chaînes individuelles :

    +

    ``(`python +stream.feed(« Bonjour, c'est une phrase. »)

    +

    Ou vous pouvez alimenter des générateurs et des itérateurs de caractères pour le streaming en temps réel :

    +

    ```(python +def write (prompt : str) : + pour chunk en openai.ChatCompletion.create( + modèle="gpt-3.5-turbo", + messages=[{"role": "utilisateur", "contenu" : prompt}], + stream=True + ): + si (text_chunk := chunk[« choix »][0][« delta »].get(« contenu »)) n'est pas Aucun : + produire du texte_chunk

    +

    text_stream = write (« Un discours relaxant en trois phrases »)

    +

    stream.feed(text_stream) +``

    +

    ``(`python +char_iterator = iter (« Diffusion de ce personnage par personnage ») +stream.feed (char_iterator)

    +

    Layback

    +

    Asynchrone:

    +

    ``(`python +stream.play_async() +pendant que stream.is_playing(): + temps.sommeil(0,1)

    +

    Synchronisé:

    +

    ``(`python +stream.play()

    +

    Tester la bibliothèque

    +

    Le sous-répertoire de test contient un ensemble de scripts pour vous aider à évaluer et comprendre les capacités de la bibliothèque RealtimeTTS.

    +

    Notez que la plupart des tests reposent toujours sur l'« ancienne » API OpenAI (<1.0.0). L'utilisation de la nouvelle API OpenAI est démontrée dans openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description : Une démonstration de style « hello world » de l'usage le plus simple de la bibliothèque.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description : Une démonstration complète présentant la plupart des fonctionnalités fournies par la bibliothèque.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description : Test du moteur local coqui TTS.
      • +
      +
    • +
    • +

      traducteur.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Traductions en temps réel dans six langues différentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Interface utilisateur activée par mot de réveil et basée sur la voix vers l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dépendances: Exécuter pip install openai keyboard realtimestt.
      • +
      • Description : Choisissez le moteur et la voix TTS avant de démarrer la conversation sur l'IA.
      • +
      +
    • +
    • +

      _talkbot.py minimaliste

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Un talkbot basique en 20 lignes de code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : Démonstration simple de la façon d'intégrer la bibliothèque avec de grands modèles de langage (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : présente les rappels et vous permet de vérifier les temps de latence dans un environnement d'application réel.
      • +
      +
    • +
    +

    Mettre en pause, reprendre et arrêter

    +

    Mettre en pause le flux audio :

    +

    ``(`python +stream.pause()

    +

    Reprendre un flux en pause :

    +

    ``(`python +stream.reprendre()

    +

    Arrêtez immédiatement le flux :

    +

    ``(`python +stream.stop()

    +

    Exigences expliquées

    +
      +
    • Version Python:
    • +
    • Obligatoire: Python >= 3.9, < 3.13
    • +
    • +

      Raison : La bibliothèque dépend de la bibliothèque GitHub « TTS » de coqui, qui nécessite des versions Python dans cette gamme.

      +
    • +
    • +

      PyAudio : pour créer un flux audio de sortie

      +
    • +
    • +

      stream2sent : pour diviser le flux de texte entrant en phrases

      +
    • +
    • +

      pyttsx3 : Moteur de conversion texte-parole du système

      +
    • +
    • +

      pydub : pour convertir les formats de morceaux audio

      +
    • +
    • +

      azure-cognitiveservices-speech : Moteur de conversion texte-parole azur

      +
    • +
    • +

      elevenlabs : Moteur de conversion texte-parole Elevenlabs

      +
    • +
    • +

      coqui-TTS : Bibliothèque de synthèse vocale XTTS de Coqui pour un TTS neuronal local de haute qualité

      +
    • +
    +

    Criez à Idiap Research Institute pour entretenir une fourche de coqui tts.

    +
      +
    • +

      openai : pour interagir avec l'API TTS d'OpenAI

      +
    • +
    • +

      gtts : Google traduit la conversion texte-parole

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/hi/api/index.html b/ko/hi/api/index.html new file mode 100755 index 0000000..c30f4a8 --- /dev/null +++ b/ko/hi/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    हिंदी

    + +

    कॉन्फ़िगरेशन

    +

    TextToAudioStream के लिए प्रारंभिक पैरामीटर

    +

    जब आप TextToAudioStream क्लास का इनिशियलाइज़ेशन करते हैं, तो आपके पास इसके व्यवहार को कस्टमाइज़ करने के लिए विभिन्न विकल्प होते हैं। यहाँ उपलब्ध पैरामीटर हैं:

    +

    engine (BaseEngine)

    +
      +
    • प्रकार: BaseEngine
    • +
    • आवश्यकता: हाँ
    • +
    • विवरण: टेक्स्ट-से-ऑडियो सिंथेसिस के लिए ज़िम्मेदार आधार इंजन। आपको ऑडियो सिंथेसिस को सक्षम करने के लिए BaseEngine या इसके सबक्लास का एक इंस्टेंस प्रदान करना होगा।
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब ट्रिगर होता है जब टेक्स्ट स्ट्रीम शुरू होती है। इसे किसी सेटअप या लॉगिंग के लिए उपयोग करें।
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन टेक्स्ट स्ट्रीम समाप्त होने पर सक्रिय होता है। इसे क्लीनअप कार्यों या लॉगिंग के लिए उपयोग किया जा सकता है।
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब चालू होता है जब ऑडियो स्ट्रीम शुरू होती है। यह UI अपडेट या इवेंट लॉगिंग के लिए सहायक है।
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन ऑडियो स्ट्रीम समाप्त होने पर कॉल किया जाता है। यह संसाधन क्लीनअप या पोस्ट-प्रोसेसिंग कार्यों के लिए आदर्श है।
    • +
    +

    on_character (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब कॉल किया जाता है जब एकल कैरेक्टर प्रोसेस किया जाता है।
    • +
    +

    output_device_index (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: उपयोग करने के लिए आउटपुट डिवाइस इंडेक्स निर्दिष्ट करता है। None डिफ़ॉल्ट डिवाइस का उपयोग करता है।
    • +
    +

    tokenizer (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: nltk
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग किए जाने वाले टोकनाइज़र (वर्तमान में "nltk" और "stanza" समर्थित हैं)।
    • +
    +

    language (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: en
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +

    muted (bool)

    +
      +
    • प्रकार: बूल
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: ग्लोबल म्यूटेड पैरामीटर। अगर True है, तो कोई pyAudio स्ट्रीम नहीं खोली जाएगी। स्थानीय स्पीकरों के माध्यम से ऑडियो प्लेबैक को अक्षम करता है और प्ले पैरामीटर म्यूट सेटिंग को ओवरराइड करता है।
    • +
    +

    level (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: logging.WARNING
    • +
    • विवरण: आंतरिक लॉगर के लिए लॉगिंग स्तर सेट करता है। यह पायथन के बिल्ट-इन logging मॉड्यूल से कोई भी इंटीजर कॉन्स्टेंट हो सकता है।
    • +
    +

    उदाहरण उपयोग:

    +
    engine = YourEngine()  # अपने इंजन के साथ प्रतिस्थापित करें
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    मेथड्स

    +

    play और play_async

    +

    ये मेथड्स टेक्स्ट-से-ऑडियो सिंथेसिस को निष्पादित करने और ऑडियो स्ट्रीम प्ले करने के लिए जिम्मेदार हैं। play एक ब्लॉकिंग फंक्शन है, जबकि play_async एक अलग थ्रेड में चलता है, जिससे अन्य ऑपरेशंस जारी रह सकते हैं।

    +
    पैरामीटर:
    +
    fast_sentence_fragment (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह विधि स्पीड को प्राथमिकता देगी, और वाक्यांशों को तेजी से जनरेट और प्ले करेगी। यह ऐसे अनुप्रयोगों के लिए सहायक है जहाँ विलंबता मायने रखती है।
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो सभी वाक्यों पर फास्ट वाक्यांश प्रोसेसिंग लागू करता है।
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह एकल के बजाय एकाधिक वाक्यांश उत्पन्न करने की अनुमति देता है।
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • डिफ़ॉल्ट: 0.0
    • +
    • +

      विवरण: बफ़रिंग सीमा के लिए समय को सेकंड में निर्दिष्ट करता है, जो ऑडियो प्लेबैक की स्थिरता और निरंतरता को प्रभावित करता है।

      +
    • +
    • +

      कैसे काम करता है: नए वाक्य का सिंथेसिस करने से पहले, सिस्टम यह जांचता है कि क्या बफ़र में निर्दिष्ट समय से अधिक ऑडियो सामग्री बची है। इससे यह सुनिश्चित होता है कि अधिक प्री-बफ़र किए गए ऑडियो से प्लेबैक में मौन या अंतराल कम हो।

      +
    • +
    +
    minimum_sentence_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: एक स्ट्रिंग को सिंथेसाइज़ करने के लिए वाक्य के रूप में मानने के लिए न्यूनतम कैरेक्टर की लंबाई सेट करता है।
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: पहले वाक्यांश के लिए आवश्यक न्यूनतम कैरेक्टर की संख्या सेट करता है।
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: सक्षम होने पर, ऑडियो में सिंथेसाइज़ होते समय टेक्स्ट के अंशों को लॉग करता है।
    • +
    +
    reset_generated_text (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: अगर True है, तो प्रोसेसिंग से पहले जनरेट किए गए टेक्स्ट को रीसेट करता है।
    • +
    +
    output_wavfile (str)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: यदि सेट है, तो ऑडियो को निर्दिष्ट WAV फाइल में सहेजता है।
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने के बाद कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने से पहले कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल ऑडियो टुकड़ा तैयार होने पर कॉल किया जाने वाला कॉलबैक फंक्शन।
    • +
    +
    tokenizer (str)
    +
      +
    • डिफ़ॉल्ट: "nltk"
    • +
    • विवरण: वाक्य विभाजन के लिए टोकनाइज़र। वर्तमान में "nltk" और "stanza" का समर्थन है।
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: टेक्स्ट से वाक्य को टोकनाइज़ करने
    • +
    +

    वाला एक कस्टम फंक्शन। यदि आप nltk और stanza से संतुष्ट नहीं हैं, तो अपना स्वयं का टोकनाइज़र प्रदान कर सकते हैं।

    +
    language (str)
    +
      +
    • डिफ़ॉल्ट: "en"
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +
    context_size (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाने के लिए संदर्भ स्थापित करने के लिए प्रयुक्त कैरेक्टर की संख्या।
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाते समय आगे देखने के लिए अतिरिक्त संदर्भ आकार।
    • +
    +
    muted (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: यदि True है, तो स्थानीय स्पीकर के माध्यम से ऑडियो प्लेबैक को अक्षम करता है।
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • डिफ़ॉल्ट: ".?!;:,\n…)]}。-"
    • +
    • विवरण: उन कैरेक्टर की स्ट्रिंग जो वाक्य सीमाओं के रूप में माने जाते हैं।
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • डिफ़ॉल्ट: 15
    • +
    • विवरण: पहले वाक्यांश को उत्पन्न करने के लिए आवश्यक शब्दों की संख्या।
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/hi/contributing/index.html b/ko/hi/contributing/index.html new file mode 100755 index 0000000..297442a --- /dev/null +++ b/ko/hi/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS में योगदान करें

    +

    हम RealtimeTTS में आपके योगदान का स्वागत करते हैं! आप इन तरीकों से योगदान कर सकते हैं:

    +
      +
    1. +

      बग रिपोर्ट करना: यदि आपको कोई बग मिलता है, तो कृपया हमारे GitHub रिपॉजिटरी पर एक इश्यू खोलें।

      +
    2. +
    3. +

      सुधारों का सुझाव देना: क्या आपके पास नई सुविधाओं या सुधारों के लिए सुझाव हैं? हमें उन्हें सुनकर खुशी होगी! कृपया सुधारों का सुझाव देने के लिए एक इश्यू खोलें।

      +
    4. +
    5. +

      कोड योगदान: कोई नई सुविधा जोड़ना चाहते हैं या किसी बग को ठीक करना चाहते हैं? शानदार! कृपया इन चरणों का पालन करें:

      +
    6. +
    7. रिपॉजिटरी को फोर्क करें
    8. +
    9. अपने फीचर के लिए एक नई ब्रांच बनाएं
    10. +
    11. अपने बदलाव करें
    12. +
    13. +

      अपने बदलावों का स्पष्ट विवरण देते हुए एक पुल रिक्वेस्ट सबमिट करें

      +
    14. +
    15. +

      दस्तावेज़ीकरण: टाइपो सुधारने, उदाहरण जोड़ने या भ्रमित करने वाले भागों को स्पष्ट करके हमें अपने दस्तावेज़ीकरण में सुधार करने में मदद करें।

      +
    16. +
    17. +

      नए इंजनों को जोड़ना: यदि आप किसी नए TTS इंजन के लिए समर्थन जोड़ना चाहते हैं, तो कृपया पहले एक इश्यू खोलें ताकि हम इसके कार्यान्वयन पर चर्चा कर सकें।

      +
    18. +
    +

    RealtimeTTS को बेहतर बनाने में मदद करने के लिए धन्यवाद!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/hi/faq/index.html b/ko/hi/faq/index.html new file mode 100755 index 0000000..eb6957e --- /dev/null +++ b/ko/hi/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    अक्सर पूछे जाने वाले प्रश्न

    +

    RealtimeTTS से संबंधित अक्सर पूछे जाने वाले प्रश्नों के उत्तर के लिए, कृपया हमारे GitHub पर FAQ पेज पर जाएँ।

    +

    यह पेज विभिन्न विषयों को कवर करता है, जिनमें शामिल हैं:

    +
      +
    • विभिन्न TTS इंजनों का उपयोग
    • +
    • बहुभाषी टेक्स्ट को संभालना
    • +
    • प्रदर्शन में सुधार
    • +
    • सामान्य समस्याओं का समाधान
    • +
    +

    अधिक विस्तृत जानकारी के लिए, कृपया ऊपर दिए गए लिंक पर जाएँ।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/hi/index.html b/ko/hi/index.html new file mode 100755 index 0000000..ba28e96 --- /dev/null +++ b/ko/hi/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    रीयल-टाइम अनुप्रयोगों के लिए उपयोग में आसान, कम-विलंबता वाला टेक्स्ट-टू-स्पीच लाइब्रेरी

    +

    परियोजना के बारे में

    +

    RealtimeTTS एक अत्याधुनिक टेक्स्ट-टू-स्पीच (TTS) लाइब्रेरी है, जिसे रीयल-टाइम अनुप्रयोगों के लिए डिज़ाइन किया गया है। इसकी सबसे बड़ी विशेषता यह है कि यह न्यूनतम विलंबता के साथ टेक्स्ट स्ट्रीम को तेज़ी से उच्च-गुणवत्ता वाली ध्वनि में परिवर्तित कर सकता है।

    +

    मुख्य विशेषताएँ

    +
      +
    • कम विलंबता: लगभग तात्कालिक टेक्स्ट-टू-स्पीच रूपांतरण, LLM आउटपुट के अनुकूल
    • +
    • उच्च-गुणवत्ता वाली ध्वनि: स्पष्ट और प्राकृतिक-ध्वनि उत्पन्न करता है
    • +
    • विभिन्न TTS इंजनों का समर्थन: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS और System TTS का समर्थन करता है
    • +
    • बहुभाषी समर्थन
    • +
    • मजबूत और विश्वसनीय: लगातार संचालन सुनिश्चित करने के लिए एक फ़ॉलबैक तंत्र का उपयोग करता है, व्यवधानों के मामले में वैकल्पिक इंजनों पर स्विच करता है, जो स्थिरता और विश्वसनीयता की गारंटी देता है
    • +
    +

    स्थापना निर्देशों, उपयोग के उदाहरणों और API संदर्भ के लिए, कृपया साइडबार का उपयोग करके दस्तावेज़ में नेविगेट करें।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/hi/installation/index.html b/ko/hi/installation/index.html new file mode 100755 index 0000000..f5a539b --- /dev/null +++ b/ko/hi/installation/index.html @@ -0,0 +1,2216 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | HN

    +
    +

    नोट: pip install realtimetts का बेसिक इंस्टॉलेशन अब अनुशंसित नहीं है, इसके बजाय pip install realtimetts[all] का उपयोग करें।

    +
    +

    RealtimeTTS लाइब्रेरी विभिन्न निर्भरताओं के साथ इंस्टॉलेशन के विकल्प प्रदान करती है, ताकि आप अपने उपयोग के अनुसार इसे स्थापित कर सकें। यहाँ इंस्टॉलेशन के विभिन्न विकल्प दिए गए हैं:

    +

    पूर्ण स्थापना

    +

    सभी TTS इंजनों के समर्थन के साथ RealtimeTTS स्थापित करने के लिए:

    +
    pip install -U realtimetts[all]
    +
    +

    कस्टम इंस्टॉलेशन

    +

    RealtimeTTS में न्यूनतम लाइब्रेरी इंस्टॉलेशन के साथ कस्टम इंस्टॉलेशन की सुविधा है। उपलब्ध विकल्प:

    +
      +
    • all: सभी इंजनों के साथ पूर्ण इंस्टॉलेशन।
    • +
    • system: सिस्टम-विशिष्ट TTS क्षमताएँ शामिल करता है (जैसे, pyttsx3)।
    • +
    • azure: Azure Cognitive Services Speech का समर्थन जोड़ता है।
    • +
    • elevenlabs: ElevenLabs API के साथ एकीकरण।
    • +
    • openai: OpenAI वॉइस सेवाओं के लिए।
    • +
    • gtts: Google Text-to-Speech समर्थन।
    • +
    • coqui: Coqui TTS इंजन स्थापित करता है।
    • +
    • minimal: केवल बेस आवश्यकताओं को स्थापित करता है, बिना किसी इंजन के (यदि आप अपना इंजन विकसित करना चाहते हैं तो इसकी आवश्यकता होती है)।
    • +
    +

    उदाहरण के लिए, केवल स्थानीय न्यूरल Coqui TTS उपयोग के लिए RealtimeTTS स्थापित करना हो, तो उपयोग करें:

    +
    pip install realtimetts[coqui]
    +
    +

    अगर आप केवल Azure Cognitive Services Speech, ElevenLabs, और OpenAI का समर्थन चाहते हैं तो:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    वर्चुअल एनवायरनमेंट इंस्टॉलेशन

    +

    यदि आप एक वर्चुअल एनवायरनमेंट में पूर्ण स्थापना करना चाहते हैं, तो ये कदम अपनाएँ:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA इंस्टॉलेशन के बारे में अधिक जानकारी।

    +

    इंजन आवश्यकताएँ

    +

    RealtimeTTS द्वारा समर्थित विभिन्न इंजनों की अलग-अलग आवश्यकताएँ हैं। अपनी पसंद के अनुसार इन आवश्यकताओं को पूरा करना सुनिश्चित करें।

    +

    SystemEngine

    +

    SystemEngine आपके सिस्टम की अंतर्निहित TTS क्षमताओं के साथ स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    GTTSEngine

    +

    GTTSEngine Google Translate के टेक्स्ट-टू-स्पीच API का उपयोग करके स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    OpenAIEngine

    +

    OpenAIEngine का उपयोग करने के लिए: +- पर्यावरण वेरिएबल OPENAI_API_KEY सेट करें +- ffmpeg स्थापित करें (देखें CUDA इंस्टॉलेशन बिंदु 3)

    +

    AzureEngine

    +

    AzureEngine का उपयोग करने के लिए आपको चाहिए: +- Microsoft Azure Text-to-Speech API कुंजी (AzureEngine में "speech_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल AZURE_SPEECH_KEY में) +- Microsoft Azure सेवा क्षेत्र।

    +

    इंस्टॉल करते समय ये क्रेडेंशियल उपलब्ध और सही तरीके से कॉन्फ़िगर करना सुनिश्चित करें।

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine के लिए, आपको चाहिए: +- Elevenlabs API कुंजी (ElevenlabsEngine में "api_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल ELEVENLABS_API_KEY में) +- आपके सिस्टम पर mpv स्थापित हो (mpeg ऑडियो स्ट्रीमिंग के लिए आवश्यक है, Elevenlabs केवल mpeg प्रदान करता है)।

    +

    🔹 mpv स्थापित करना: + - macOS: + brew install mpv

    +
      +
    • Linux और Windows: इंस्टॉलेशन के निर्देशों के लिए mpv.io पर जाएं।
    • +
    +

    CoquiEngine

    +

    उच्च गुणवत्ता, स्थानीय, न्यूरल TTS प्रदान करता है जिसमें वॉइस-क्लोनिंग भी शामिल है।

    +

    पहली बार एक न्यूरल TTS मॉडल डाउनलोड करता है। अधिकतर मामलों में GPU सिंथेसिस का उपयोग करते हुए रीयल-टाइम के लिए पर्याप्त तेज़ होगा। लगभग 4-5 GB VRAM की आवश्यकता होती है।

    +
      +
    • वॉइस क्लोन करने के लिए CoquiEngine के "voice" पैरामीटर में एक वेव फ़ाइल का नाम दर्ज करें जिसमें स्रोत वॉइस हो।
    • +
    • वॉइस क्लोनिंग के लिए 22050 Hz मोनो 16-बिट WAV फाइल के साथ लगभग 5-30 सेकंड की नमूना ऑडियो फ़ाइल सबसे अच्छा परिणाम देती है।
    • +
    +

    CUDA इंस्टॉलेशन

    +

    वे लोग जिनके पास NVIDIA GPU है और जो बेहतर प्रदर्शन चाहते हैं, उनके लिए ये कदम अनुशंसित हैं।

    +
    +

    नोट: अगर आपका NVIDIA GPU CUDA को सपोर्ट करता है तो आधिकारिक CUDA GPUs सूची पर जाँचें।

    +
    +

    CUDA समर्थन के साथ torch का उपयोग करने के लिए, इन चरणों का पालन करें:

    +
      +
    1. +

      NVIDIA CUDA टूलकिट स्थापित करें: + उदाहरण के लिए, टूलकिट 12.X स्थापित करने के लिए:

      +
        +
      • NVIDIA CUDA डाउनलोड पर जाएँ।
      • +
      • अपने ऑपरेटिंग सिस्टम, सिस्टम आर्किटेक्चर, और ओएस संस्करण का चयन करें।
      • +
      • सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।
      • +
      +
    2. +
    3. +

      NVIDIA cuDNN स्थापित करें:

      +

      उदाहरण के लिए, CUDA 11.x के लिए cuDNN 8.7.0 स्थापित करने के लिए: +- NVIDIA cuDNN Archive पर जाएं। +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x" पर क्लिक करें। +- सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।

      +
    4. +
    5. +

      ffmpeg स्थापित करें:

      +

      आप अपने OS के लिए ffmpeg वेबसाइट से इंस्टॉलर डाउनलोड कर सकते हैं: ffmpeg Website

      +
    6. +
    7. +

      CUDA समर्थन के साथ PyTorch स्थापित करें:

      +

      अपने सिस्टम और आवश्यकताओं के अनुसार PyTorch संस्करण को CUDA समर्थन के साथ अपग्रेड करने के लिए:

      +
        +
      • +

        CUDA 11.8 के लिए:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        CUDA 12.X के लिए:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +
    8. +
    9. +

      संगतता समस्याओं को हल करने के लिए फिक्स: + यदि आप लाइब्रेरी संगतता मुद्दों का सामना करते हैं, तो इन लाइब्रेरी संस्करणों को फिक्स करने का प्रयास करें:

      +
    10. +
    +

    pip install networkx==2.8.8 + pip install typing_extensions==4.8.0 + pip install fsspec==2023.6.0 + pip install imageio==2.31.6 + pip install numpy==1.24.3 + pip install requests==2.31.0

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/hi/usage/index.html b/ko/hi/usage/index.html new file mode 100755 index 0000000..774ec99 --- /dev/null +++ b/ko/hi/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    उपयोग

    +

    त्वरित प्रारंभ

    +

    यहाँ एक बुनियादी उदाहरण दिया गया है:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # अपनी TTS-इंजन के साथ इसे बदलें
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    टेक्स्ट इनपुट

    +

    आप व्यक्तिगत स्ट्रिंग्स इनपुट कर सकते हैं:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    या आप वास्तविक समय-स्ट्रीमिंग के लिए जनरेटर और कैरेक्टर-इटरेटर का उपयोग कर सकते हैं:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    प्लेबैक

    +

    असिंक्रोनस:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    सिंक्रोनस:

    +
    stream.play()
    +
    +

    लाइब्रेरी का परीक्षण

    +

    परीक्षण-सबडायरेक्टरी में विभिन्न स्क्रिप्ट्स शामिल हैं, जो आपको RealtimeTTS लाइब्रेरी की क्षमताओं को समझने और आकलन करने में मदद करती हैं।

    +

    ध्यान दें कि अधिकांश परीक्षण अभी भी "पुरानी" OpenAI API (<1.0.0) पर आधारित हैं। नई OpenAI API का उपयोग openai_1.0_test.py में प्रदर्शित किया गया है।

    +
      +
    • +

      simple_test.py

      +
        +
      • विवरण: सबसे आसान लाइब्रेरी उपयोग का एक "Hello World" जैसा प्रदर्शन।
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • विवरण: लाइब्रेरी की अधिकतम कार्यक्षमता का व्यापक प्रदर्शन।
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • विवरण: स्थानीय Coqui TTS-इंजन का परीक्षण।
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: वास्तविक समय में छह विभिन्न भाषाओं में अनुवाद।
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: एक्टिवेशन-वर्ड के माध्यम से और आवाज-आधारित इंटरफ़ेस के साथ OpenAI API का उपयोग।
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • आवश्यकताएँ: pip install openai keyboard realtimestt कमांड चलाएँ।
      • +
      • विवरण: AI बातचीत शुरू करने से पहले TTS-इंजन और आवाज का चयन।
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: 20 कोड लाइनों में एक साधारण टॉकबोट।
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: लाइब्रेरी की LLMs के साथ एकीकृत करने का सरल प्रदर्शन।
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: वास्तविक वातावरण में विलंब समय को मापने और प्रतिक्रिया को प्रदर्शित करता है।
      • +
      +
    • +
    +

    रुकना, पुनः आरंभ करना और रोकना

    +

    ऑडियो स्ट्रीम को रोकें:

    +
    stream.pause()
    +
    +

    रुकी हुई स्ट्रीम पुनः प्रारंभ करें:

    +
    stream.resume()
    +
    +

    स्ट्रीम तुरंत रोकें:

    +
    stream.stop()
    +
    +

    आवश्यकताओं का स्पष्टीकरण

    +
      +
    • Python संस्करण:
    • +
    • आवश्यक: Python >= 3.9, < 3.13
    • +
    • +

      कारण: लाइब्रेरी Coqui की GitHub लाइब्रेरी "TTS" पर निर्भर करती है, जो इस संस्करण सीमा का समर्थन करती है।

      +
    • +
    • +

      PyAudio: ऑडियो आउटपुट स्ट्रीम बनाने के लिए

      +
    • +
    • +

      stream2sentence: इनकमिंग टेक्स्ट स्ट्रीम को वाक्यों में विभाजित करने के लिए

      +
    • +
    • +

      pyttsx3: सिस्टम Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      pydub: ऑडियो चंक फॉर्मेट्स में कन्वर्शन के लिए

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      coqui-TTS: उच्च गुणवत्ता वाली स्थानीय न्यूरल TTS के लिए Coqui का XTTS Text-to-Speech लाइब्रेरी

      +
    • +
    +

    Idiap Research Institute को उनके Coqui TTS का Fork बनाए रखने के लिए धन्यवाद।

    +
      +
    • +

      openai: OpenAI TTS API के साथ बातचीत के लिए

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech कन्वर्शन

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/index.html b/ko/index.html new file mode 100755 index 0000000..7db396e --- /dev/null +++ b/ko/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    실시간TTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    실시간 애플리케이션을 위한 사용하기 쉽고 저지연 텍스트 음성 변환 라이브러리

    +

    프로젝트 소개

    +

    RealtimeTTS는 실시간 애플리케이션을 위해 설계된 최첨단 텍스트 음성 변환(TTS) 라이브러리입니다. 텍스트 스트림을 빠르게 고품질의 오디오 출력으로 변환하는 능력에서 두드러집니다.

    +

    주요 특징

    +
      +
    • 저지연: 거의 즉각적인 텍스트 음성 변환, LLM 출력과 호환 가능
    • +
    • 고품질 오디오: 명확하고 자연스러운 음성을 생성합니다.
    • +
    • 다양한 TTS 엔진 지원: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS 및 System TTS를 지원합니다.
    • +
    • 다국어 지원
    • +
    • 견고하고 신뢰할 수 있음: 백업 메커니즘을 통해 지속적인 운영을 보장하며, 중단 시 대체 엔진으로 전환하여 일관된 성능과 신뢰성을 보장합니다.
    • +
    +

    설치 지침, 사용 예제 및 API 참조를 보려면 사이드바를 사용하여 문서를 탐색해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/installation/index.html b/ko/installation/index.html new file mode 100755 index 0000000..1cba9c1 --- /dev/null +++ b/ko/installation/index.html @@ -0,0 +1,2267 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    한국어

    + +
    +

    참고: 이제 pip install realtimetts로 기본 설치하는 것은 권장되지 않으며, 대신 pip install realtimetts[all]를 사용하세요.

    +
    +

    RealtimeTTS 라이브러리는 사용 사례에 맞는 다양한 종속성 설치 옵션을 제공합니다. 여기 당신의 필요에 따라 RealtimeTTS를 설치할 수 있는 다양한 방법이 있습니다:

    +

    전체 설치

    +

    모든 TTS 엔진을 지원하는 RealtimeTTS를 설치하려면:

    +
    pip install -U realtimetts[all]
    +
    +

    맞춤 설치

    +

    RealtimeTTS는 최소한의 라이브러리 설치로 맞춤 설치를 허용합니다. 다음은 이용 가능한 옵션입니다: +- 모두: 모든 엔진이 지원되는 전체 설치. +- 시스템: 시스템별 TTS 기능 포함 (e.g., pyttsx3). +- azure: Azure Cognitive Services Speech 지원을 추가합니다. +- elevenlabs: ElevenLabs API와의 통합을 포함합니다. +- openai: OpenAI 음성 서비스용. +- gtts: 구글 텍스트 음성 변환 지원. +- coqui: Coqui TTS 엔진을 설치합니다. +- 최소: 엔진 없이 기본 요구 사항만 설치 (only needed if you want to develop an own engine)

    +

    로컬 신경망 Coqui TTS 사용을 위해 RealtimeTTS만 설치하고 싶다고 가정해 보세요, 그러면 다음을 사용해야 합니다:

    +
    pip install realtimetts[coqui]
    +
    +

    예를 들어, Azure Cognitive Services Speech, ElevenLabs, OpenAI 지원만으로 RealtimeTTS를 설치하고 싶다면:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    가상 환경 설치

    +

    가상 환경 내에서 전체 설치를 수행하려는 분들은 다음 단계를 따르세요:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA 설치에 대한 자세한 정보.

    +

    엔진 요구 사항

    +

    RealtimeTTS에서 지원하는 다양한 엔진은 고유한 요구 사항을 가지고 있습니다. 선택한 엔진에 따라 이러한 요구 사항을 충족하도록 하십시오.

    +

    시스템엔진

    +

    SystemEngine은 시스템에 내장된 TTS 기능과 함께 즉시 사용할 수 있습니다. 추가 설정이 필요하지 않습니다.

    +

    GTTSEngine

    +

    GTTSEngine은 Google Translate의 텍스트 음성 변환 API를 사용하여 즉시 작동합니다. 추가 설정이 필요 없습니다.

    +

    오픈AI엔진

    +

    OpenAIEngine을 사용하려면: +- 환경 변수 OPENAI_API_KEY 설정 +- ffmpeg 설치 (참고: CUDA 설치 3번 항목)

    +

    AzureEngine

    +

    AzureEngine을 사용하려면 다음이 필요합니다: +- Microsoft Azure Text-to-Speech API 키 (AzureEngine 생성자 매개변수 "speech_key" 또는 환경 변수 AZURE_SPEECH_KEY를 통해 제공됨) +- 마이크로소프트 애저 서비스 지역.

    +

    AzureEngine을 초기화할 때 이러한 자격 증명이 준비되어 있고 올바르게 구성되어 있는지 확인하세요.

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine을 사용하려면 다음이 필요합니다: +- Elevenlabs API 키 (ElevenlabsEngine 생성자 매개변수 "api_key"를 통해 제공되거나 환경 변수 ELEVENLABS_API_KEY에 설정됨) +- 시스템에 mpv가 설치되어 있습니다. (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 mpv 설치하기: + - macOS: + plaintext + brew install mpv

    +
      +
    • 리눅스와 윈도우: 설치 지침은 mpv.io를 방문하세요.
    • +
    +

    코키엔진

    +

    고품질의 로컬 신경 TTS를 음성 클로닝과 함께 제공합니다.

    +

    먼저 신경 TTS 모델을 다운로드합니다. 대부분의 경우 GPU 합성을 사용하면 실시간으로 충분히 빠를 것입니다. 약 4-5GB의 VRAM이 필요합니다.

    +
      +
    • 음성을 복제하려면 소스 음성이 포함된 WAV 파일의 파일 이름을 "voice" 매개변수로 CoquiEngine 생성자에게 제출하십시오.
    • +
    • 음성 복제는 22050 Hz 모노 16비트 WAV 파일에 짧은 (~5-30초) 샘플이 포함된 경우에 가장 잘 작동합니다.
    • +
    +

    대부분의 시스템에서는 실시간으로 충분히 빠르게 실행하기 위해 GPU 지원이 필요하며, 그렇지 않으면 끊김 현상이 발생할 것입니다.

    +

    CUDA 설치

    +

    이 단계들은 더 나은 성능을 요구하고 호환 가능한 NVIDIA GPU를 가진 분들에게 권장됩니다.

    +
    +

    참고: NVIDIA GPU가 CUDA를 지원하는지 확인하려면 공식 CUDA GPU 목록을 방문하세요.

    +
    +

    CUDA를 통해 지원되는 토치를 사용하려면 다음 단계를 따르세요:

    +
    +

    참고: 최신 pytorch 설치는 여기 (확인되지 않음)에서 Toolkit (및 아마도 cuDNN) 설치가 더 이상 필요하지 않을 수 있습니다.

    +
    +
      +
    1. +

      NVIDIA CUDA 툴킷 설치: + 예를 들어, Toolkit 12.X를 설치하려면

      +
        +
      • NVIDIA CUDA 다운로드를 방문하세요.
      • +
      • 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요.
      • +
      • 소프트웨어를 다운로드하고 설치하세요.
      • +
      +

      또는 Toolkit 11.8을 설치하려면, +- NVIDIA CUDA Toolkit 아카이브를 방문하세요. +- 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    2. +
    3. +

      NVIDIA cuDNN 설치:

      +

      예를 들어, CUDA 11.x에 cuDNN 8.7.0을 설치하려면 +- NVIDIA cuDNN 아카이브를 방문하세요. +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x"를 클릭하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    4. +
    5. +

      ffmpeg 설치:

      +

      ffmpeg 웹사이트에서 운영 체제에 맞는 설치 프로그램을 다운로드할 수 있습니다.

      +

      또는 패키지 관리자를 사용하세요:

      +
        +
      • +

        우분투나 데비안에서: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linux에서: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrew를 사용한 MacOS에서 (https://brew.sh/): + ```bash +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolatey를 사용한 Windows에서** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +        ```
    +
    +    - **Scoop을 사용하여 Windows에서** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```
    +        스쿱 설치 ffmpeg
    +
    +
      +
    1. +

      CUDA 지원으로 PyTorch 설치하기:

      +

      CUDA를 사용하여 GPU 지원을 활성화하려면, 특정 CUDA 버전에 따라 다음 지침을 따르세요. CUDA 기능으로 RealtimeSTT의 성능을 향상시키고자 한다면 유용합니다.

      +
        +
      • +

        CUDA 11.8의 경우:

        +

        PyTorch와 Torchaudio를 CUDA 11.8을 지원하도록 업데이트하려면 다음 명령어를 사용하세요:

        +

        ```bash +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      +
    2. +
    +
            텍스트를 번역할 내용: ```
    +
    +    - **CUDA 12.X의 경우:**
    +
    +
    +        PyTorch와 Torchaudio를 CUDA 12.X를 지원하도록 업데이트하려면 다음을 실행하세요:
    +
    +        ```bash
    +pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +
        텍스트를 번역할 내용: ```
    +
    +`2.3.1`을(를) 귀하의 시스템 및 요구 사항에 맞는 PyTorch 버전으로 교체하세요.
    +
    +
      +
    1. 호환성 문제를 해결하기 위한 수정: + 라이브러리 호환성 문제에 직면하면, 이 라이브러리들을 고정된 버전으로 설정해 보세요:
    2. +
    +

    텍스트를 번역할 내용: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/it/api/index.html b/ko/it/api/index.html new file mode 100755 index 0000000..87262b7 --- /dev/null +++ b/ko/it/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Italiano

    + +

    Configurazione

    +

    Parametri di Inizializzazione per TextToAudioStream

    +

    Quando si inizializza la classe TextToAudioStream, sono disponibili diverse opzioni per personalizzare il suo comportamento. Ecco i parametri disponibili:

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Obbligatorio: Sì
    • +
    • Descrizione: Il motore sottostante responsabile della sintesi da testo ad audio. È necessario fornire un'istanza di BaseEngine o della sua sottoclasse per abilitare la sintesi audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando inizia lo stream di testo. Utilizzala per qualsiasi configurazione o registrazione necessaria.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando termina lo stream di testo. Puoi utilizzarla per attività di pulizia o registrazione.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene invocata quando inizia lo stream audio. Utile per aggiornamenti dell'interfaccia utente o registrazione eventi.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando lo stream audio si ferma. Ideale per la pulizia delle risorse o attività di post-elaborazione.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando viene elaborato un singolo carattere.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: None
    • +
    • Descrizione: Specifica l'indice del dispositivo di output da utilizzare. None usa il dispositivo predefinito.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: nltk
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi (attualmente sono supportati "nltk" e "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: en
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Obbligatorio: No
    • +
    • Predefinito: False
    • +
    • Descrizione: Parametro globale di silenziamento. Se True, non verrà aperto alcuno stream pyAudio. Disabilita la riproduzione audio attraverso gli altoparlanti locali (nel caso in cui si desideri sintetizzare su file o elaborare chunk audio) e sovrascrive l'impostazione muted dei parametri di riproduzione.
    • +
    +

    level (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: logging.WARNING
    • +
    • Descrizione: Imposta il livello di logging per il logger interno. Può essere qualsiasi costante intera dal modulo logging integrato di Python.
    • +
    +

    Esempio di Utilizzo:

    +
    engine = YourEngine()  # Sostituire con il proprio motore
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Metodi

    +

    play e play_async

    +

    Questi metodi sono responsabili dell'esecuzione della sintesi testo-audio e della riproduzione dello stream audio. La differenza è che play è una funzione bloccante, mentre play_async viene eseguito in un thread separato, permettendo ad altre operazioni di procedere.

    +
    Parametri:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Quando impostato su True, il metodo darà priorità alla velocità, generando e riproducendo i frammenti di frase più rapidamente. Questo è utile per applicazioni dove la latenza è importante.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, applica l'elaborazione rapida dei frammenti di frase a tutte le frasi, non solo alla prima.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, permette di produrre più frammenti di frase invece di uno solo.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Predefinito: 0.0
    • +
    • +

      Descrizione: Specifica il tempo in secondi per la soglia di buffering, che influenza la fluidità e la continuità della riproduzione audio.

      +
    • +
    • +

      Come Funziona: Prima di sintetizzare una nuova frase, il sistema controlla se nel buffer rimane più materiale audio del tempo specificato da buffer_threshold_seconds. In caso affermativo, recupera un'altra frase dal generatore di testo, assumendo che possa recuperare e sintetizzare questa nuova frase entro la finestra temporale fornita dall'audio rimanente nel buffer. Questo processo consente al motore di sintesi vocale di avere più contesto per una migliore sintesi, migliorando l'esperienza utente.

      +
    • +
    +

    Un valore più alto assicura che ci sia più audio pre-bufferizzato, riducendo la probabilità di silenzi o interruzioni durante la riproduzione. Se si verificano interruzioni o pause, considera di aumentare questo valore.

    +
    minimum_sentence_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Imposta la lunghezza minima in caratteri per considerare una stringa come una frase da sintetizzare. Questo influisce su come vengono elaborati e riprodotti i chunk di testo.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Il numero minimo di caratteri richiesti per il primo frammento di frase prima della produzione.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando abilitato, registra i chunk di testo mentre vengono sintetizzati in audio. Utile per il controllo e il debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Se True, reimposta il testo generato prima dell'elaborazione.
    • +
    +
    output_wavfile (str)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Se impostato, salva l'audio nel file WAV specificato.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata dopo che un singolo frammento di frase è stato sintetizzato.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata prima che un singolo frammento di frase venga sintetizzato.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Funzione di callback che viene chiamata quando un singolo chunk audio è pronto.
    • +
    +
    tokenizer (str)
    +
      +
    • Predefinito: "nltk"
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi. Attualmente supporta "nltk" e "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione personalizzata che tokenizza le frasi dal testo di input. Puoi fornire il tuo tokenizer leggero se non sei soddisfatto di nltk e stanza. Dovrebbe prendere il testo come stringa e restituire le frasi divise come lista di stringhe.
    • +
    +
    language (str)
    +
      +
    • Predefinito: "en"
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +
    context_size (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Il numero di caratteri utilizzati per stabilire il contesto per il rilevamento dei confini della frase. Un contesto più ampio migliora la precisione nel rilevare i confini delle frasi.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Dimensione del contesto aggiuntiva per guardare avanti durante il rilevamento dei confini delle frasi.
    • +
    +
    muted (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Se True, disabilita la riproduzione audio attraverso gli altoparlanti locali. Utile quando si desidera sintetizzare su file o elaborare chunk audio senza riprodurli.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Predefinito: ".?!;:,\n…)]}。-"
    • +
    • Descrizione: Una stringa di caratteri che sono considerati delimitatori di frase.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Predefinito: 15
    • +
    • Descrizione: Il numero di parole dopo il quale viene forzata la produzione del primo frammento di frase.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/it/contributing/index.html b/ko/it/contributing/index.html new file mode 100755 index 0000000..fa74e1c --- /dev/null +++ b/ko/it/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuire a RealtimeTTS

    +

    Accogliamo con favore i contributi a RealtimeTTS! Ecco alcuni modi in cui puoi contribuire:

    +
      +
    1. +

      Segnalazione di bug: Se trovi un bug, apri un problema sul nostro repository GitHub.

      +
    2. +
    3. +

      Suggerendo Miglioramenti: Hai idee per nuove funzionalità o miglioramenti? Ci piacerebbe sentirli! Apri un problema per suggerire miglioramenti.

      +
    4. +
    5. +

      Contributi del codice: vuoi aggiungere una nuova funzionalità o correggere un bug? Grande! Si prega di seguire questi passaggi:

      +
    6. +
    7. Forchetta il repository
    8. +
    9. Crea un nuovo ramo per la tua funzione
    10. +
    11. Apporta le tue modifiche
    12. +
    13. +

      Invia una richiesta pull con una chiara descrizione delle modifiche

      +
    14. +
    15. +

      Documentazione: aiutaci a migliorare la nostra documentazione correggendo errori di battitura, aggiungendo esempi o chiarendo sezioni confuse.

      +
    16. +
    17. +

      Aggiunta di nuovi motori: se si desidera aggiungere il supporto per un nuovo motore TTS, aprire prima un problema per discutere l'implementazione.

      +
    18. +
    +

    Grazie per aver contribuito a rendere RealtimeTTS migliore!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/it/faq/index.html b/ko/it/faq/index.html new file mode 100755 index 0000000..4d71c96 --- /dev/null +++ b/ko/it/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Domande frequenti

    +

    Per le risposte alle domande più frequenti su RealtimeTTS, fare riferimento alla nostra [pagina FAQ su GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Questa pagina tratta vari argomenti tra cui

    +
      +
    • Utilizzo di diversi motori TTS
    • +
    • Gestione del testo multilingue
    • +
    • Ottimizzazione delle prestazioni
    • +
    • Risoluzione dei problemi comuni
    • +
    +

    Per informazioni più dettagliate, visitare il link sopra.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/it/index.html b/ko/it/index.html new file mode 100755 index 0000000..3c6a30e --- /dev/null +++ b/ko/it/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Libreria text-to-speech facile da usare e a bassa latenza per applicazioni in tempo reale

    +

    Informazioni sul progetto

    +

    RealtimeTTS è una libreria text-to-speech (TTS) all'avanguardia progettata per applicazioni in tempo reale. Si distingue per la sua capacità di convertire rapidamente i flussi di testo in output uditivo di alta qualità con una latenza minima.

    +

    Caratteristiche principali

    +
      +
    • Bassa latenza: conversione testo-discorso quasi istantanea, compatibile con le uscite LLM
    • +
    • Audio di alta qualità: generi un discorso chiaro e dal suono naturale
    • +
    • Multiplo supporto motore TTS: supportoa OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS e System TTS
    • +
    • Multilingue
    • +
    • Robust and Reliable: assicurazione un divertimento continuo attraverso un meccanismo di ripiego, passa a motori alternativi in caso di interdizioni garantite prestazioni e affidabilità costanti
    • +
    +

    Per istruzioni di installazione, esempi di utilizzo e ritorno API, navigare nella documentazione utilizzando la barra laterale.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/it/installation/index.html b/ko/it/installation/index.html new file mode 100755 index 0000000..1665a48 --- /dev/null +++ b/ko/it/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Italiano

    + +
    +

    Nota: L'installazione base con pip install realtimetts non è più raccomandata, utilizzare invece pip install realtimetts[all].

    +
    +

    La libreria RealtimeTTS fornisce opzioni di installazione per varie dipendenze in base al tuo caso d'uso. Ecco i diversi modi in cui puoi installare RealtimeTTS in base alle tue necessità:

    +

    Installazione Completa

    +

    Per installare RealtimeTTS con supporto per tutti i motori TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Installazione Personalizzata

    +

    RealtimeTTS permette un'installazione personalizzata con installazioni minime delle librerie. Ecco le opzioni disponibili: +- all: Installazione completa con tutti i motori supportati. +- system: Include le capacità TTS specifiche del sistema (es. pyttsx3). +- azure: Aggiunge il supporto Azure Cognitive Services Speech. +- elevenlabs: Include l'integrazione con l'API ElevenLabs. +- openai: Per i servizi vocali OpenAI. +- gtts: Supporto Google Text-to-Speech. +- coqui: Installa il motore Coqui TTS. +- minimal: Installa solo i requisiti base senza motore (necessario solo se si vuole sviluppare un proprio motore)

    +

    Se vuoi installare RealtimeTTS solo per l'uso locale di Coqui TTS neurale, dovresti utilizzare:

    +
    pip install realtimetts[coqui]
    +
    +

    Per esempio, se vuoi installare RealtimeTTS solo con il supporto per Azure Cognitive Services Speech, ElevenLabs e OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installazione in Ambiente Virtuale

    +

    Per chi vuole eseguire un'installazione completa all'interno di un ambiente virtuale, seguire questi passaggi:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Maggiori informazioni sull'installazione CUDA.

    +

    Requisiti dei Motori

    +

    I diversi motori supportati da RealtimeTTS hanno requisiti unici. Assicurati di soddisfare questi requisiti in base al motore che scegli.

    +

    SystemEngine

    +

    Il SystemEngine funziona subito con le capacità TTS integrate nel tuo sistema. Non è necessaria alcuna configurazione aggiuntiva.

    +

    GTTSEngine

    +

    Il GTTSEngine funziona subito utilizzando l'API text-to-speech di Google Translate. Non è necessaria alcuna configurazione aggiuntiva.

    +

    OpenAIEngine

    +

    Per utilizzare OpenAIEngine: +- impostare la variabile d'ambiente OPENAI_API_KEY +- installare ffmpeg (vedi installazione CUDA punto 3)

    +

    AzureEngine

    +

    Per utilizzare AzureEngine, avrai bisogno di: +- Chiave API Microsoft Azure Text-to-Speech (fornita tramite il parametro del costruttore AzureEngine "speech_key" o nella variabile d'ambiente AZURE_SPEECH_KEY) +- Regione del servizio Microsoft Azure.

    +

    Assicurati di avere queste credenziali disponibili e configurate correttamente quando inizializzi AzureEngine.

    +

    ElevenlabsEngine

    +

    Per ElevenlabsEngine, hai bisogno di: +- Chiave API Elevenlabs (fornita tramite il parametro del costruttore ElevenlabsEngine "api_key" o nella variabile d'ambiente ELEVENLABS_API_KEY) +- mpv installato sul tuo sistema (essenziale per lo streaming audio mpeg, Elevenlabs fornisce solo mpeg).

    +

    🔹 Installazione di mpv: + - macOS: + brew install mpv

    +
      +
    • Linux e Windows: Visita mpv.io per le istruzioni di installazione.
    • +
    +

    CoquiEngine

    +

    Fornisce TTS neurale locale di alta qualità con clonazione vocale.

    +

    Scarica prima un modello TTS neurale. Nella maggior parte dei casi sarà abbastanza veloce per il tempo reale utilizzando la sintesi GPU. Richiede circa 4-5 GB di VRAM.

    +
      +
    • per clonare una voce inviare il nome del file di un file wave contenente la voce sorgente come parametro "voice" al costruttore CoquiEngine
    • +
    • la clonazione vocale funziona meglio con un file WAV mono 16bit a 22050 Hz contenente un breve campione (circa 5-30 sec)
    • +
    +

    Sulla maggior parte dei sistemi sarà necessario il supporto GPU per funzionare abbastanza velocemente per il tempo reale, altrimenti si verificheranno interruzioni.

    +

    Installazione CUDA

    +

    Questi passaggi sono raccomandati per chi richiede migliori prestazioni e ha una GPU NVIDIA compatibile.

    +
    +

    Nota: per verificare se la tua GPU NVIDIA supporta CUDA, visita la lista ufficiale delle GPU CUDA.

    +
    +

    Per utilizzare torch con supporto via CUDA segui questi passaggi:

    +
    +

    Nota: le installazioni più recenti di pytorch potrebbero (non verificato) non necessitare più dell'installazione del Toolkit (e possibilmente cuDNN).

    +
    +
      +
    1. +

      Installa NVIDIA CUDA Toolkit: + Per esempio, per installare il Toolkit 12.X, per favore

      +
        +
      • Visita NVIDIA CUDA Downloads.
      • +
      • Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo.
      • +
      • Scarica e installa il software.
      • +
      +

      o per installare il Toolkit 11.8, per favore +- Visita NVIDIA CUDA Toolkit Archive. +- Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo. +- Scarica e installa il software.

      +
    2. +
    3. +

      Installa NVIDIA cuDNN:

      +

      Per esempio, per installare cuDNN 8.7.0 per CUDA 11.x per favore +- Visita NVIDIA cuDNN Archive. +- Clicca su "Download cuDNN v8.7.0 (28 Novembre 2022), per CUDA 11.x". +- Scarica e installa il software.

      +
    4. +
    5. +

      Installa ffmpeg:

      +

      Puoi scaricare un installer per il tuo sistema operativo dal sito web ffmpeg.

      +

      Oppure usa un gestore pacchetti:

      +
        +
      • +

        Su Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Su Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Su MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Su Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Su Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installa PyTorch con supporto CUDA:

      +

      Per aggiornare la tua installazione PyTorch per abilitare il supporto GPU con CUDA, segui queste istruzioni basate sulla tua versione CUDA specifica. Questo è utile se desideri migliorare le prestazioni di RealtimeSTT con le capacità CUDA.

      +
        +
      • +

        Per CUDA 11.8:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 11.8, usa i seguenti comandi:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Per CUDA 12.X:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 12.X, esegui quanto segue:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Sostituisci 2.3.1 con la versione di PyTorch che corrisponde al tuo sistema e requisiti.

      +
    8. +
    9. +

      Fix per risolvere problemi di compatibilità: + Se riscontri problemi di compatibilità delle librerie, prova a impostare queste librerie a versioni fisse:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/it/usage/index.html b/ko/it/usage/index.html new file mode 100755 index 0000000..fd81ea0 --- /dev/null +++ b/ko/it/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Utilizzo

    +

    Avvio Rapido

    +

    Ecco un esempio di utilizzo base:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # sostituisci con il tuo motore TTS
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Inserimento del Testo

    +

    Puoi inserire singole stringhe:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oppure puoi inserire generatori e iteratori di caratteri per lo streaming in tempo reale:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Riproduzione

    +

    In modo asincrono:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    In modo sincrono:

    +
    stream.play()
    +
    +

    Test della Libreria

    +

    La sottodirectory test contiene una serie di script per aiutarti a valutare e comprendere le capacità della libreria RealtimeTTS.

    +

    Nota che la maggior parte dei test si basa ancora sulla "vecchia" API OpenAI (<1.0.0). L'utilizzo della nuova API OpenAI è dimostrato in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descrizione: Una dimostrazione stile "hello world" dell'utilizzo più semplice della libreria.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descrizione: Una dimostrazione completa che mostra la maggior parte delle funzionalità fornite dalla libreria.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descrizione: Test del motore TTS coqui locale.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Traduzioni in tempo reale in sei lingue diverse.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Interfaccia utente vocale attivata da parola chiave per l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dipendenze: Esegui pip install openai keyboard realtimestt.
      • +
      • Descrizione: Scegli il motore TTS e la voce prima di iniziare la conversazione con l'IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Un talkbot base in 20 righe di codice.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Semplice dimostrazione di come integrare la libreria con i modelli linguistici di grandi dimensioni (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Mostra i callback e ti permette di verificare i tempi di latenza in un ambiente applicativo reale.
      • +
      +
    • +
    +

    Pausa, Ripresa e Stop

    +

    Metti in pausa lo stream audio:

    +
    stream.pause()
    +
    +

    Riprendi uno stream in pausa:

    +
    stream.resume()
    +
    +

    Ferma immediatamente lo stream:

    +
    stream.stop()
    +
    +

    Requisiti Spiegati

    +
      +
    • Versione Python:
    • +
    • Richiesto: Python >= 3.9, < 3.13
    • +
    • +

      Motivo: La libreria dipende dalla libreria GitHub "TTS" di coqui, che richiede versioni Python in questo intervallo.

      +
    • +
    • +

      PyAudio: per creare uno stream audio di output

      +
    • +
    • +

      stream2sentence: per dividere il flusso di testo in ingresso in frasi

      +
    • +
    • +

      pyttsx3: Motore di conversione text-to-speech di sistema

      +
    • +
    • +

      pydub: per convertire i formati dei chunk audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motore di conversione text-to-speech di Azure

      +
    • +
    • +

      elevenlabs: Motore di conversione text-to-speech di Elevenlabs

      +
    • +
    • +

      coqui-TTS: Libreria text-to-speech XTTS di Coqui per TTS neurale locale di alta qualità

      +
    • +
    +

    Un ringraziamento speciale a Idiap Research Institute per il mantenimento di un fork di coqui tts.

    +
      +
    • +

      openai: per interagire con l'API TTS di OpenAI

      +
    • +
    • +

      gtts: Conversione text-to-speech di Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ja/api/index.html b/ko/ja/api/index.html new file mode 100755 index 0000000..0b8736d --- /dev/null +++ b/ko/ja/api/index.html @@ -0,0 +1,2814 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    日本語

    + +

    設定

    +

    TextToAudioStreamの初期化パラメータ

    +

    TextToAudioStreamクラスを初期化する際、その動作をカスタマイズするための様々なオプションがあります。利用可能なパラメータは以下の通りです:

    +

    engine (BaseEngine)

    +
      +
    • : BaseEngine
    • +
    • 必須: はい
    • +
    • 説明: テキストから音声への合成を担当する基盤エンジンです。音声合成を有効にするには、BaseEngineまたはそのサブクラスのインスタンスを提供する必要があります。
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが開始されたときにトリガーされるオプションのコールバック関数です。セットアップやログ記録に使用できます。
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが終了したときに実行されるオプションのコールバック関数です。クリーンアップタスクやログ記録に使用できます。
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが開始されたときに呼び出されるオプションのコールバック関数です。UIの更新やイベントログに役立ちます。
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが停止したときに呼び出されるオプションのコールバック関数です。リソースのクリーンアップや後処理タスクに最適です。
    • +
    +

    on_character (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 一文字が処理されるたびに呼び出されるオプションのコールバック関数です。
    • +
    +

    output_device_index (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: None
    • +
    • 説明: 使用する出力デバイスのインデックスを指定します。Noneの場合はデフォルトデバイスを使用します。
    • +
    +

    tokenizer (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: nltk
    • +
    • 説明: 文分割に使用するトークナイザー(現在は"nltk"と"stanza"がサポートされています)。
    • +
    +

    language (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: en
    • +
    • 説明: 文分割に使用する言語。
    • +
    +

    muted (bool)

    +
      +
    • : 真偽値
    • +
    • 必須: いいえ
    • +
    • デフォルト値: False
    • +
    • 説明: グローバルなミュートパラメータ。Trueの場合、pyAudioストリームは開かれません。ローカルスピーカーを介した音声再生を無効にし(ファイルへの合成や音声チャンクの処理を行う場合)、playパラメータのミュート設定を上書きします。
    • +
    +

    level (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: logging.WARNING
    • +
    • 説明: 内部ロガーのログレベルを設定します。Pythonの組み込みloggingモジュールの任意の整数定数を使用できます。
    • +
    +

    使用例:

    +
    engine = YourEngine()  # あなたのエンジンで置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +```python
    +engine = YourEngine()  # あなたのエンジンに置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    メソッド

    +

    playplay_async

    +

    これらのメソッドはテキストから音声への合成と音声ストリームの再生を担当します。playはブロッキング関数である一方、play_asyncは別のスレッドで実行され、他の操作を続行できるという違いがあります。

    +
    パラメータ:
    +
    fast_sentence_fragment (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueに設定すると、文章の断片をより速く生成して再生することを優先します。レイテンシーが重要なアプリケーションに有用です。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、最初の文だけでなく、すべての文に対して高速な文章断片処理を適用します。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、単一の文章断片ではなく、複数の文章断片を生成することができます。
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • デフォルト値: 0.0
    • +
    • +

      説明: 音声再生の滑らかさと連続性に影響を与えるバッファリングのしきい値を秒単位で指定します。

      +
    • +
    • +

      動作原理: 新しい文を合成する前に、システムはバッファにbuffer_threshold_secondsで指定された時間以上の音声材料が残っているかチェックします。残っている場合、テキストジェネレータから別の文を取得します。これは、バッファに残っている音声の時間枠内で新しい文を取得して合成できると仮定しています。このプロセスにより、テキスト音声変換エンジンがより良い合成のためのコンテキストを持つことができ、ユーザー体験を向上させます。

      +
    • +
    +

    より高い値を設定すると、より多くの音声がプリバッファされ、再生中の無音や隙間が発生する可能性が減少します。途切れや一時停止が発生する場合は、この値を増やすことを検討してください。

    +
    minimum_sentence_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 合成する文として扱う文字列の最小文字数を設定します。これはテキストチャンクの処理と再生方法に影響します。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 最初の文章断片を生成する前に必要な最小文字数です。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: 有効にすると、音声に合成されるテキストチャンクをログに記録します。監査やデバッグに役立ちます。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueの場合、処理前に生成されたテキストをリセットします。
    • +
    +
    output_wavfile (str)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 設定すると、指定されたWAVファイルに音声を保存します。
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成された後に呼び出されるコールバック関数です。
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成される前に呼び出されるコールバック関数です。
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の音声チャンクが準備できたときに呼び出されるコールバック関数です。
    • +
    +
    tokenizer (str)
    +
      +
    • デフォルト値: "nltk"
    • +
    • 説明: 文分割に使用するトークナイザーです。現在は"nltk"と"stanza"をサポートしています。
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 入力テキストから文を分割するカスタム関数です。nltkやstanzaに満足できない場合、独自の軽量トークナイザーを提供できます。テキストを文字列として受け取り、分割された文を文字列のリストとして返す必要があります。
    • +
    +
    language (str)
    +
      +
    • デフォルト値: "en"
    • +
    • 説明: 文分割に使用する言語です。
    • +
    +
    context_size (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界検出のために使用される文字数です。より大きなコンテキストは文境界の検出精度を向上させます。
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界を検出する際の先読みのための追加のコンテキストサイズです。
    • +
    +
    muted (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueの場合、ローカルスピーカーを介した音声再生を無効にします。ファイルに合成したり、音声チャンクを再生せずに処理したりする場合に有用です。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • デフォルト値: ".?!;:,\n…)]}。-"
    • +
    • 説明: 文の区切り文字として扱われる文字の文字列です。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • デフォルト値: 15
    • +
    • 説明: 最初の文章断片を生成する必要がある単語数です。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ja/contributing/index.html b/ko/ja/contributing/index.html new file mode 100755 index 0000000..afa93a5 --- /dev/null +++ b/ko/ja/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTSへの貢献

    +

    RealtimeTTSへの貢献を歓迎します! ここにあなたが貢献できるいくつかの方法があります:

    +
      +
    1. +

      バグの報告: バグを見つけた場合は、GitHubリポジトリにイシューを開いてください。

      +
    2. +
    3. +

      改善提案: 新機能や改善のアイデアはありますか? ぜひお聞かせください! 改善提案のために問題を開いてください。

      +
    4. +
    5. +

      コードの貢献: 新しい機能を追加したり、バグを修正したりしたいですか? すごい! これらの手順に従ってください。

      +
    6. +
    7. リポジトリをフォークする
    8. +
    9. 機能のための新しいブランチを作成する
    10. +
    11. 変更を加える
    12. +
    13. +

      変更内容を明確に説明したプルリクエストを提出してください

      +
    14. +
    15. +

      ドキュメント: タイポを修正したり、例を追加したり、わかりにくい部分を明確にすることで、私たちのドキュメントを改善する手助けをしてください。

      +
    16. +
    17. +

      新しいエンジンの追加: 新しいTTSエンジンのサポートを追加したい場合は、まず実装について議論するためにイシューを開いてください。

      +
    18. +
    +

    RealtimeTTSをより良くするために協力していただきありがとうございます!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ja/faq/index.html b/ko/ja/faq/index.html new file mode 100755 index 0000000..c096812 --- /dev/null +++ b/ko/ja/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    よくある質問

    +

    RealtimeTTSに関するよくある質問の回答については、GitHubのFAQページをご覧ください。

    +

    このページでは、次のようなさまざまなトピックを取り上げています。

    +
      +
    • 異なるTTSエンジンの使用
    • +
    • 多言語テキストの取り扱い
    • +
    • パフォーマンスの最適化
    • +
    • 一般的な問題のトラブルシューティング
    • +
    +

    詳細な情報については、上記のリンクをご覧ください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ja/index.html b/ko/ja/index.html new file mode 100755 index 0000000..34adc33 --- /dev/null +++ b/ko/ja/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    リアルタイムTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    リアルタイムアプリケーション向けの使いやすく、低遅延のテキスト読み上げライブラリ

    +

    プロジェクトについて

    +

    RealtimeTTSは、リアルタイムアプリケーション向けに設計された最先端のテキスト読み上げ(TTS)ライブラリです。 それは、テキストストリームを迅速に高品質な音声出力に変換する能力において際立っています。

    +

    主な特徴

    +
      +
    • 低遅延: ほぼ瞬時にテキストを音声に変換し、LLM出力と互換性があります
    • +
    • 高品質な音声: 明瞭で自然な音声を生成します
    • +
    • 複数のTTSエンジンサポート: OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS、System TTSをサポートします
    • +
    • 多言語対応
    • +
    • 堅牢で信頼性が高い: フォールバックメカニズムを通じて継続的な運用を保証し、障害が発生した場合には代替エンジンに切り替えて、一貫したパフォーマンスと信頼性を確保します。
    • +
    +

    インストール手順、使用例、およびAPIリファレンスについては、サイドバーを使用してドキュメントを参照してください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ja/installation/index.html b/ko/ja/installation/index.html new file mode 100755 index 0000000..36aa907 --- /dev/null +++ b/ko/ja/installation/index.html @@ -0,0 +1,2155 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    日本語

    + +
    +

    注意: pip install realtimetts での基本インストールは推奨されなくなりました。代わりに pip install realtimetts[all] を使用してください。

    +
    +

    RealtimeTTSライブラリは、あなたのユースケースに応じたさまざまな依存関係のインストールオプションを提供します。 ニーズに応じてRealtimeTTSをインストールする方法はいくつかあります:

    +

    フルインストール

    +

    すべてのTTSエンジンに対応したRealtimeTTSをインストールするには:

    +
    pip install -U realtimetts[all]
    +
    +

    カスタムインストール

    +

    RealtimeTTSは、最小限のライブラリインストールでカスタムインストールを可能にします。 こちらが利用可能なオプションです。 +- すべて: すべてのエンジンがサポートされた完全なインストール。 +- システム: システム固有のTTS機能を含む (e.g., pyttsx3). +- azure: Azure Cognitive Services Speechサポートを追加します。 +- elevenlabs: ElevenLabs APIとの統合が含まれています。 +- openai: OpenAIの音声サービス用。 +- gtts: Google テキスト読み上げサポート。 +- coqui: Coqui TTSエンジンをインストールします。 +- minimal: エンジンなしで基本要件のみをインストール (only needed if you want to develop an own engine)

    +

    ローカルの神経系Coqui TTSでのみRealtimeTTSをインストールしたい場合は、次のようにしてください:

    +
    pip install realtimetts[coqui]
    +
    +

    例えば、Azure Cognitive Services Speech、ElevenLabs、OpenAIのサポートのみでRealtimeTTSをインストールしたい場合:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    仮想環境のインストール

    +

    仮想環境内で完全なインストールを行いたい方は、以下の手順に従ってください。

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.
    +```バット
    +python.exe -m pip install --pipをアップグレード
    +pip install -U realtimetts[all]
    +テキストを翻訳してください: ```
    +
    +[CUDAインストール](#cuda-installation)に関する詳細情報。
    +
    +## エンジン要件
    +
    +RealtimeTTSがサポートする異なるエンジンには、それぞれ独自の要件があります。 選択したエンジンに基づいてこれらの要件を満たすようにしてください。
    +
    +### システムエンジン
    +`SystemEngine`は、システムに内蔵されたTTS機能とそのまま使えます。 追加の設定は必要ありません。
    +
    +### GTTSEngine
    +`GTTSEngine`は、Google翻訳のテキスト読み上げAPIを使用して、すぐに使える状態で動作します。 追加の設定は必要ありません。
    +
    +### OpenAIエンジン
    +`OpenAIEngine`を使用するには:
    +- 環境変数 OPENAI_API_KEY を設定する
    +- ffmpeg をインストールする([CUDA インストール](#cuda-installation)の3番目のポイントを参照)
    +
    +### AzureEngine
    +`AzureEngine`を使用するには、次のものが必要です:
    +- Microsoft Azure Text-to-Speech APIキー(AzureEngineコンストラクタのパラメータ「speech_key」または環境変数AZURE_SPEECH_KEYで提供されます)
    +- マイクロソフトAzureサービスリージョン。
    +
    +`AzureEngine`を初期化する際に、これらの資格情報が利用可能で正しく設定されていることを確認してください。
    +
    +### ElevenlabsEngine
    +`ElevenlabsEngine`には、次のものが必要です:
    +- Elevenlabs APIキー(ElevenlabsEngineコンストラクタのパラメータ「api_key」または環境変数ELEVENLABS_API_KEYで提供されます)
    +- システムに`mpv`がインストールされています (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).
    +
    +  🔹 **`mpv`のインストール:**
    +  - **macOS**:
    +    ```plaintext
    +brew install mpv
    +
    +
      +
    • LinuxおよびWindows: インストール手順についてはmpv.ioをご覧ください。
    • +
    +

    CoquiEngine

    +

    高品質でローカルなニューラルTTSをボイスクローン機能付きで提供します。

    +

    まず、ニューラルTTSモデルをダウンロードします。 ほとんどの場合、GPU合成を使用すればリアルタイムで十分な速度になります。 約4〜5GBのVRAMが必要です。

    +
      +
    • 声をクローンするには、ソース音声を含むWAVファイルのファイル名を「voice」パラメータとしてCoquiEngineコンストラクタに提出してください。
    • +
    • 声のクローンは、短い(約5〜30秒)サンプルを含む22050 Hzモノ16ビットWAVファイルで最も効果的です。
    • +
    +

    ほとんどのシステムでは、リアルタイムで十分な速度を出すためにGPUサポートが必要です。さもなければ、カクつきが発生します。

    +

    CUDAのインストール

    +

    これらの手順は、より良いパフォーマンスを必要とし、互換性のあるNVIDIA GPUを持っている方に推奨されます。

    +
    +

    注意: お使いのNVIDIA GPUがCUDAをサポートしているか確認するには、公式CUDA GPUリストをご覧ください。

    +
    +

    CUDAをサポートするTorchを使用するには、次の手順に従ってください。

    +
    +

    注意: 新しいPyTorchのインストールでは、かもしれない(未確認)がToolkit(およびおそらくcuDNN)のインストールを必要としないかもしれません。

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkitをインストールする: + 例えば、Toolkit 12.Xをインストールするには、

      +
        +
      • NVIDIA CUDA Downloadsを訪れてください。
      • +
      • オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。
      • +
      +

      または、Toolkit 11.8をインストールするには、 +- NVIDIA CUDA Toolkit Archiveをご覧ください。 +- オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    2. +
    3. +

      NVIDIA cuDNNをインストールする:

      +

      例えば、CUDA 11.x用のcuDNN 8.7.0をインストールするには、次の手順を行ってください。 +- NVIDIA cuDNNアーカイブを訪問してください。 +「Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x」をクリックしてください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    4. +
    5. +

      ffmpegをインストールする:

      +

      ffmpegウェブサイトからお使いのOS用のインストーラーをダウンロードできます。

      +

      またはパッケージマネージャーを使用してください:

      +
        +
      • +

        UbuntuまたはDebianの場合: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linuxで: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrewを使用してMacOSで (https://brew.sh/): + ```plaintext +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolateyを使用してWindowsで** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **Scoopを使用してWindowsで** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    scoop install ffmpeg
    +
    +
    
    +4. **CUDAサポート付きのPyTorchをインストールする**:
    +
    +    CUDAでGPUサポートを有効にするためにPyTorchのインストールをアップグレードするには、特定のCUDAバージョンに基づいてこれらの指示に従ってください。 これは、CUDA機能を使用してRealtimeSTTのパフォーマンスを向上させたい場合に役立ちます。
    +
    +    - **CUDA 11.8の場合:**
    +
    +        PyTorchとTorchaudioをCUDA 11.8に対応させるために、次のコマンドを使用してください。
    +
    +        ```plaintext
    +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        テキストを翻訳する: ```
    +
    +- **CUDA 12.Xの場合:**
    +
    +
    +    PyTorchとTorchaudioをCUDA 12.Xに対応させるために、次のコマンドを実行してください。
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +テキストを翻訳する:

    +
    `2.3.1` をあなたのシステムと要件に合ったPyTorchのバージョンに置き換えてください。
    +
    +
      +
    1. 互換性の問題を解決するための修正: + ライブラリの互換性の問題が発生した場合は、これらのライブラリを固定バージョンに設定してみてください。
    2. +
    +

    テキストを翻訳する: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ja/usage/index.html b/ko/ja/usage/index.html new file mode 100755 index 0000000..2d5da70 --- /dev/null +++ b/ko/ja/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    使用

    +

    クイックスタート

    +

    基本的な使用例は次のとおりです。

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # あなたのTTSエンジンに置き換えてください +ストリーム = TextToAudioStream(engine) +stream.feed("こんにちは、世界!") 今日はどうですか? +stream.play_async()

    +

    フィードテキスト

    +

    個別の文字列を入力できます:

    +
    stream.feed("こんにちは、これは文です。")
    +
    +

    または、リアルタイムストリーミングのためにジェネレーターやキャラクターイテレーターを使用することもできます。

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```チャット完了。作成(
    +        モデル="gpt-3.5-turbo",
    +        メッセージ=[{"役割": "ユーザー", "内容": プロンプト}],
    +        ストリーム=True
    +    ):
    +        もし (text_chunk := chunk["choices"]テキストを翻訳してください。["デルタ"].get("content")) は None ではない:
    +            テキストチャンクを生成
    +
    +テキストストリーム = 書き込み("A three-sentence relaxing speech.")
    +
    +ストリームにテキストストリームをフィードする
    +
    +```python
    +char_iterator = iter("文字を1文字ずつストリーミングします。")
    +stream.feed(char_iterator)
    +
    +

    再生

    +

    非同期で:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同時に:

    +
    stream.play()
    +
    +

    ライブラリのテスト

    +

    テストサブディレクトリには、RealtimeTTSライブラリの機能を評価し理解するための一連のスクリプトが含まれています。

    +

    ほとんどのテストはまだ「古い」OpenAI API(<1.0.0)に依存していることに注意してください。 新しいOpenAI APIの使用方法はopenai_1.0_test.pyで示されています。

    +
      +
    • +

      simple_test.py

      +
        +
      • 説明: ライブラリの最も簡単な使い方を示す「ハローワールド」スタイルのデモ。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 説明: ライブラリが提供するほとんどの機能を紹介する包括的なデモ。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 説明: ローカルのcoqui TTSエンジンのテスト。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 6つの異なる言語へのリアルタイム翻訳。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依存関係: pip install openai realtimestt を実行してください。
      • +
      • 説明: ウェイクワードがアクティブになり、OpenAI APIへの音声ベースのユーザーインターフェース。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依存関係: pip install openai keyboard realtimesttを実行してください。
      • +
      • 説明: AI会話を始める前に、TTSエンジンと声を選択してください。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 20行のコードで作る基本的なトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: ライブラリを大規模言語モデルに統合する簡単なデモ (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: コールバックを紹介し、実際のアプリケーション環境でレイテンシー時間を確認できるようにします。
      • +
      +
    • +
    +

    一時停止、再開、停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止中のストリームを再開する:

    +
    stream.resume()
    +
    +

    すぐに配信を停止してください。

    +
    stream.stop()
    +
    +

    要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必要条件: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリは、coquiのGitHubライブラリ「TTS」に依存しており、これにはこの範囲のPythonバージョンが必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するために

      +
    • +
    • +

      stream2sentence: 入力されたテキストストリームを文に分割する

      +
    • +
    • +

      pyttsx3: システム音声合成エンジン

      +
    • +
    • +

      pydub: オーディオチャンクのフォーマットを変換するために

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure テキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabs テキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTSのためのCoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap Research Institutecoqui ttsのフォークを維持していることに感謝します。

    +
      +
    • +

      openai: OpenAIのTTS APIと対話するために

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ko/api/index.html b/ko/ko/api/index.html new file mode 100755 index 0000000..128406c --- /dev/null +++ b/ko/ko/api/index.html @@ -0,0 +1,2792 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    한국어

    + +

    구성

    +

    TextToAudioStream 초기화 매개변수

    +

    TextToAudioStream 클래스를 초기화할 때, 그 동작을 사용자 정의할 수 있는 다양한 옵션이 있습니다. 사용 가능한 매개변수는 다음과 같습니다:

    +

    engine (BaseEngine)

    +
      +
    • 유형: BaseEngine
    • +
    • 필수: 네 텍스트를 오디오로 변환하는 데 책임이 있는 기본 엔진. 오디오 합성을 활성화하려면 BaseEngine 또는 그 하위 클래스의 인스턴스를 제공해야 합니다.
    • +
    +

    on_text_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 시작될 때 호출됩니다. 필요한 설정이나 로깅에 사용하세요.
    • +
    +

    on_text_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 끝날 때 활성화됩니다. 이것을 정리 작업이나 로깅에 사용할 수 있습니다.
    • +
    +

    on_audio_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 시작될 때 호출됩니다. UI 업데이트나 이벤트 로깅에 유용합니다.
    • +
    +

    on_audio_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 중지될 때 호출됩니다. 리소스 정리나 후처리 작업에 적합합니다.
    • +
    +

    on_character (callable)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 단일 문자가 처리될 때 호출됩니다.
    • +
    +

    output_device_index (int)

    +
      +
    • 유형: 정수
    • +
    • 필수: 아니요 사용할 출력 장치 인덱스를 지정합니다. 아무도 기본 장치를 사용하지 않습니다.
    • +
    +

    tokenizer (string)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요
    • +
    • 기본값: nltk
    • +
    • 설명: 문장 분할에 사용할 토크나이저 (currently "nltk" and "stanza" are supported).
    • +
    +

    language (문자열)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요 문장 분할에 사용할 언어.
    • +
    +

    muted (bool)

    +
      +
    • 유형: Bool
    • +
    • 필수: 아니오
    • +
    • 기본값: False
    • +
    • 설명: 전역 음소거 매개변수. 참이면, pyAudio 스트림이 열리지 않습니다. 로컬 스피커를 통한 오디오 재생을 비활성화합니다 (파일로 합성하거나 오디오 청크를 처리하려는 경우) 및 재생 매개변수의 음소거 설정을 무시합니다.
    • +
    +

    level (int)

    +
      +
    • Type: 정수
    • +
    • Required: 아니요
    • +
    • 기본값: logging.WARNING
    • +
    • 설명: 내부 로거의 로깅 수준을 설정합니다. 이는 Python의 내장 logging 모듈에서 제공하는 정수 상수일 수 있습니다.
    • +
    +

    예시 사용법:

    +
    engine = YourEngine()  # 엔진을 당신의 엔진으로 대체하세요
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    방법

    +

    playplay_async

    +

    이 방법들은 텍스트-오디오 합성을 실행하고 오디오 스트림을 재생하는 역할을 합니다. 차이점은 play가 블로킹 함수인 반면, play_async는 별도의 스레드에서 실행되어 다른 작업이 진행될 수 있다는 것입니다.

    +
    매개변수:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: True로 설정하면, 이 방법은 속도를 우선시하여 문장 조각을 더 빨리 생성하고 재생합니다. 이는 지연 시간이 중요한 애플리케이션에 유용합니다.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 첫 번째 문장뿐만 아니라 모든 문장에 대해 빠른 문장 조각 처리를 적용합니다.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 단일 문장 조각 대신 여러 문장 조각을 생성할 수 있습니다.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • 기본값: 0.0
    • +
    • +

      설명: 버퍼링 임계값을 초 단위로 지정하며, 이는 오디오 재생의 부드러움과 연속성에 영향을 미칩니다.

      +
    • +
    • +

      작동 방식: 새로운 문장을 합성하기 전에 시스템은 버퍼에 남아 있는 오디오 자료가 buffer_threshold_seconds로 지정된 시간보다 더 많은지 확인합니다. 그렇다면, 텍스트 생성기에서 또 다른 문장을 가져오는데, 이는 버퍼에 남아 있는 오디오의 시간 창 내에서 이 새로운 문장을 가져오고 합성할 수 있다고 가정합니다. 이 과정은 텍스트 음성 변환 엔진이 더 나은 합성을 위해 더 많은 맥락을 갖도록 하여 사용자 경험을 향상시킵니다.

      +
    • +
    +

    더 높은 값은 더 많은 미리 버퍼링된 오디오를 보장하여 재생 중 침묵이나 간격이 발생할 가능성을 줄여줍니다. 중단이나 일시 정지가 발생하면 이 값을 늘려보세요.

    +
    minimum_sentence_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 문자열을 합성할 문장으로 간주하기 위한 최소 문자 길이를 설정합니다. 이것은 텍스트 청크가 처리되고 재생되는 방식에 영향을 미칩니다.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 양보하기 전에 첫 번째 문장 조각에 필요한 최소 문자 수.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 활성화되면, 텍스트 조각이 오디오로 합성될 때 로그를 기록합니다. 감사 및 디버깅에 유용합니다.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: 참이면, 처리하기 전에 생성된 텍스트를 재설정하세요.
    • +
    +
    output_wavfile (str)
    +
      +
    • 기본값: None
    • +
    • 설명: 설정된 경우, 오디오를 지정된 WAV 파일로 저장합니다.
    • +
    +
    on_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 문장 조각이 합성된 후 호출되는 콜백 함수.
    • +
    +
    before_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: 없음
    • +
    • 설명: 단일 문장 조각이 합성되기 전에 호출되는 콜백 함수.
    • +
    +
    on_audio_chunk (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 오디오 청크가 준비되면 호출되는 콜백 함수.
    • +
    +
    tokenizer (str)
    +
      +
    • 기본값: "nltk"
    • +
    • 설명: 문장 분리를 위한 토크나이저. 현재 "nltk"와 "stanza"를 지원합니다.
    • +
    +
    tokenize_sentences (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 입력 텍스트에서 문장을 토큰화하는 사용자 정의 함수. nltk와 stanza에 만족하지 않으면 자신만의 경량 토크나이저를 제공할 수 있습니다. 텍스트를 문자열로 받아서 문장으로 나눈 후 문자열 목록으로 반환해야 합니다.
    • +
    +
    language (str)
    +
      +
    • 기본값: "en"
    • +
    • 설명: 문장 분할에 사용할 언어.
    • +
    +
    context_size (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계 감지를 위한 컨텍스트를 설정하는 데 사용되는 문자 수. 더 넓은 맥락이 문장 경계를 감지하는 정확성을 높입니다.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계를 감지할 때 미리 보기 위한 추가 컨텍스트 크기.
    • +
    +
    muted (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 참이면, 로컬 스피커를 통한 오디오 재생을 비활성화합니다. 파일로 합성하거나 오디오 청크를 재생하지 않고 처리할 때 유용합니다.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 기본값: ".?!;:,\n…)]}。-" 문장 구분자로 간주되는 문자 문자열.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 기본값: 15
    • +
    • 설명: 첫 번째 문장 조각이 강제로 생성되는 단어 수.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ko/contributing/index.html b/ko/ko/contributing/index.html new file mode 100755 index 0000000..71b716a --- /dev/null +++ b/ko/ko/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS에 기여하기

    +

    RealtimeTTS에 기여해 주시면 환영합니다! 여기 당신이 기여할 수 있는 몇 가지 방법이 있습니다:

    +
      +
    1. +

      버그 신고: 버그를 발견하셨다면, 저희 GitHub 저장소에 이슈를 열어주세요.

      +
    2. +
    3. +

      개선 사항 제안하기: 새로운 기능이나 개선 사항에 대한 아이디어가 있나요? 우리는 그것들을 듣고 싶어요! 개선 사항을 제안하기 위해 이슈를 열어주세요.

      +
    4. +
    5. +

      코드 기여: 새로운 기능을 추가하거나 버그를 수정하고 싶으신가요? 대단해! 다음 단계를 따라주세요:

      +
    6. +
    7. 저장소를 포크하세요
    8. +
    9. 기능을 위한 새로운 브랜치를 만드세요
    10. +
    11. +

      변경 사항을 적용하세요 + 변경 사항에 대한 명확한 설명과 함께 풀 리퀘스트를 제출하세요.

      +
    12. +
    13. +

      문서화: 오타를 수정하거나 예제를 추가하거나 혼란스러운 부분을 명확히 하여 문서화를 개선하는 데 도움을 주세요.

      +
    14. +
    15. +

      새 엔진 추가하기: 새로운 TTS 엔진을 추가하고 싶다면, 먼저 구현에 대해 논의하기 위해 이슈를 열어주세요.

      +
    16. +
    +

    RealtimeTTS를 더 좋게 만드는 데 도움을 주셔서 감사합니다!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ko/faq/index.html b/ko/ko/faq/index.html new file mode 100755 index 0000000..59618b8 --- /dev/null +++ b/ko/ko/faq/index.html @@ -0,0 +1,1856 @@ + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    자주 묻는 질문

    +

    RealtimeTTS에 대한 자주 묻는 질문에 대한 답변은 GitHub의 FAQ 페이지를 참조해 주세요.

    +

    이 페이지는 다음과 같은 다양한 주제를 다룹니다:

    +
      +
    • 다양한 TTS 엔진의 사용
    • +
    • 다국어 텍스트 처리
    • +
    • 성능 최적화
    • +
    • 일반적인 문제 해결
    • +
    +

    자세한 정보는 위의 링크를 방문해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ko/index.html b/ko/ko/index.html new file mode 100755 index 0000000..82b1b6d --- /dev/null +++ b/ko/ko/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    실시간TTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    실시간 애플리케이션을 위한 사용하기 쉽고 저지연 텍스트 음성 변환 라이브러리

    +

    프로젝트 소개

    +

    RealtimeTTS는 실시간 애플리케이션을 위해 설계된 최첨단 텍스트 음성 변환(TTS) 라이브러리입니다. 텍스트 스트림을 빠르게 고품질의 오디오 출력으로 변환하는 능력에서 두드러집니다.

    +

    주요 특징

    +
      +
    • 저지연: 거의 즉각적인 텍스트 음성 변환, LLM 출력과 호환 가능
    • +
    • 고품질 오디오: 명확하고 자연스러운 음성을 생성합니다.
    • +
    • 다양한 TTS 엔진 지원: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS 및 System TTS를 지원합니다.
    • +
    • 다국어 지원
    • +
    • 견고하고 신뢰할 수 있음: 백업 메커니즘을 통해 지속적인 운영을 보장하며, 중단 시 대체 엔진으로 전환하여 일관된 성능과 신뢰성을 보장합니다.
    • +
    +

    설치 지침, 사용 예제 및 API 참조를 보려면 사이드바를 사용하여 문서를 탐색해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ko/installation/index.html b/ko/ko/installation/index.html new file mode 100755 index 0000000..8291a9d --- /dev/null +++ b/ko/ko/installation/index.html @@ -0,0 +1,2267 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    한국어

    + +
    +

    참고: 이제 pip install realtimetts로 기본 설치하는 것은 권장되지 않으며, 대신 pip install realtimetts[all]를 사용하세요.

    +
    +

    RealtimeTTS 라이브러리는 사용 사례에 맞는 다양한 종속성 설치 옵션을 제공합니다. 여기 당신의 필요에 따라 RealtimeTTS를 설치할 수 있는 다양한 방법이 있습니다:

    +

    전체 설치

    +

    모든 TTS 엔진을 지원하는 RealtimeTTS를 설치하려면:

    +
    pip install -U realtimetts[all]
    +
    +

    맞춤 설치

    +

    RealtimeTTS는 최소한의 라이브러리 설치로 맞춤 설치를 허용합니다. 다음은 이용 가능한 옵션입니다: +- 모두: 모든 엔진이 지원되는 전체 설치. +- 시스템: 시스템별 TTS 기능 포함 (e.g., pyttsx3). +- azure: Azure Cognitive Services Speech 지원을 추가합니다. +- elevenlabs: ElevenLabs API와의 통합을 포함합니다. +- openai: OpenAI 음성 서비스용. +- gtts: 구글 텍스트 음성 변환 지원. +- coqui: Coqui TTS 엔진을 설치합니다. +- 최소: 엔진 없이 기본 요구 사항만 설치 (only needed if you want to develop an own engine)

    +

    로컬 신경망 Coqui TTS 사용을 위해 RealtimeTTS만 설치하고 싶다고 가정해 보세요, 그러면 다음을 사용해야 합니다:

    +
    pip install realtimetts[coqui]
    +
    +

    예를 들어, Azure Cognitive Services Speech, ElevenLabs, OpenAI 지원만으로 RealtimeTTS를 설치하고 싶다면:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    가상 환경 설치

    +

    가상 환경 내에서 전체 설치를 수행하려는 분들은 다음 단계를 따르세요:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA 설치에 대한 자세한 정보.

    +

    엔진 요구 사항

    +

    RealtimeTTS에서 지원하는 다양한 엔진은 고유한 요구 사항을 가지고 있습니다. 선택한 엔진에 따라 이러한 요구 사항을 충족하도록 하십시오.

    +

    시스템엔진

    +

    SystemEngine은 시스템에 내장된 TTS 기능과 함께 즉시 사용할 수 있습니다. 추가 설정이 필요하지 않습니다.

    +

    GTTSEngine

    +

    GTTSEngine은 Google Translate의 텍스트 음성 변환 API를 사용하여 즉시 작동합니다. 추가 설정이 필요 없습니다.

    +

    오픈AI엔진

    +

    OpenAIEngine을 사용하려면: +- 환경 변수 OPENAI_API_KEY 설정 +- ffmpeg 설치 (참고: CUDA 설치 3번 항목)

    +

    AzureEngine

    +

    AzureEngine을 사용하려면 다음이 필요합니다: +- Microsoft Azure Text-to-Speech API 키 (AzureEngine 생성자 매개변수 "speech_key" 또는 환경 변수 AZURE_SPEECH_KEY를 통해 제공됨) +- 마이크로소프트 애저 서비스 지역.

    +

    AzureEngine을 초기화할 때 이러한 자격 증명이 준비되어 있고 올바르게 구성되어 있는지 확인하세요.

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine을 사용하려면 다음이 필요합니다: +- Elevenlabs API 키 (ElevenlabsEngine 생성자 매개변수 "api_key"를 통해 제공되거나 환경 변수 ELEVENLABS_API_KEY에 설정됨) +- 시스템에 mpv가 설치되어 있습니다. (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 mpv 설치하기: + - macOS: + plaintext + brew install mpv

    +
      +
    • 리눅스와 윈도우: 설치 지침은 mpv.io를 방문하세요.
    • +
    +

    코키엔진

    +

    고품질의 로컬 신경 TTS를 음성 클로닝과 함께 제공합니다.

    +

    먼저 신경 TTS 모델을 다운로드합니다. 대부분의 경우 GPU 합성을 사용하면 실시간으로 충분히 빠를 것입니다. 약 4-5GB의 VRAM이 필요합니다.

    +
      +
    • 음성을 복제하려면 소스 음성이 포함된 WAV 파일의 파일 이름을 "voice" 매개변수로 CoquiEngine 생성자에게 제출하십시오.
    • +
    • 음성 복제는 22050 Hz 모노 16비트 WAV 파일에 짧은 (~5-30초) 샘플이 포함된 경우에 가장 잘 작동합니다.
    • +
    +

    대부분의 시스템에서는 실시간으로 충분히 빠르게 실행하기 위해 GPU 지원이 필요하며, 그렇지 않으면 끊김 현상이 발생할 것입니다.

    +

    CUDA 설치

    +

    이 단계들은 더 나은 성능을 요구하고 호환 가능한 NVIDIA GPU를 가진 분들에게 권장됩니다.

    +
    +

    참고: NVIDIA GPU가 CUDA를 지원하는지 확인하려면 공식 CUDA GPU 목록을 방문하세요.

    +
    +

    CUDA를 통해 지원되는 토치를 사용하려면 다음 단계를 따르세요:

    +
    +

    참고: 최신 pytorch 설치는 여기 (확인되지 않음)에서 Toolkit (및 아마도 cuDNN) 설치가 더 이상 필요하지 않을 수 있습니다.

    +
    +
      +
    1. +

      NVIDIA CUDA 툴킷 설치: + 예를 들어, Toolkit 12.X를 설치하려면

      +
        +
      • NVIDIA CUDA 다운로드를 방문하세요.
      • +
      • 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요.
      • +
      • 소프트웨어를 다운로드하고 설치하세요.
      • +
      +

      또는 Toolkit 11.8을 설치하려면, +- NVIDIA CUDA Toolkit 아카이브를 방문하세요. +- 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    2. +
    3. +

      NVIDIA cuDNN 설치:

      +

      예를 들어, CUDA 11.x에 cuDNN 8.7.0을 설치하려면 +- NVIDIA cuDNN 아카이브를 방문하세요. +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x"를 클릭하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    4. +
    5. +

      ffmpeg 설치:

      +

      ffmpeg 웹사이트에서 운영 체제에 맞는 설치 프로그램을 다운로드할 수 있습니다.

      +

      또는 패키지 관리자를 사용하세요:

      +
        +
      • +

        우분투나 데비안에서: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linux에서: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrew를 사용한 MacOS에서 (https://brew.sh/): + ```bash +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolatey를 사용한 Windows에서** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +        ```
    +
    +    - **Scoop을 사용하여 Windows에서** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```
    +        스쿱 설치 ffmpeg
    +
    +
      +
    1. +

      CUDA 지원으로 PyTorch 설치하기:

      +

      CUDA를 사용하여 GPU 지원을 활성화하려면, 특정 CUDA 버전에 따라 다음 지침을 따르세요. CUDA 기능으로 RealtimeSTT의 성능을 향상시키고자 한다면 유용합니다.

      +
        +
      • +

        CUDA 11.8의 경우:

        +

        PyTorch와 Torchaudio를 CUDA 11.8을 지원하도록 업데이트하려면 다음 명령어를 사용하세요:

        +

        ```bash +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      +
    2. +
    +
            텍스트를 번역할 내용: ```
    +
    +    - **CUDA 12.X의 경우:**
    +
    +
    +        PyTorch와 Torchaudio를 CUDA 12.X를 지원하도록 업데이트하려면 다음을 실행하세요:
    +
    +        ```bash
    +pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +
        텍스트를 번역할 내용: ```
    +
    +`2.3.1`을(를) 귀하의 시스템 및 요구 사항에 맞는 PyTorch 버전으로 교체하세요.
    +
    +
      +
    1. 호환성 문제를 해결하기 위한 수정: + 라이브러리 호환성 문제에 직면하면, 이 라이브러리들을 고정된 버전으로 설정해 보세요:
    2. +
    +

    텍스트를 번역할 내용: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/ko/usage/index.html b/ko/ko/usage/index.html new file mode 100755 index 0000000..b5c964a --- /dev/null +++ b/ko/ko/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    사용 방법

    +

    빠른 시작

    +

    기본적인 사용 예는 다음과 같습니다:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +
    +engine = SystemEngine() # TTS 엔진을 지정
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    텍스트 피드

    +

    개별 문자열을 입력할 수 있습니다:

    +
    stream.feed("안녕하세요, 이것은 문장입니다.")
    +
    +

    실시간 스트리밍용 제너레이터나 문자 이터레이터를 피드하는 것도 가능합니다:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    재생

    +

    비동기 재생:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    동기 재생:

    +
    stream.play()
    +
    +

    라이브러리 테스트

    +

    test 서브디렉토리에는 RealtimeTTS 라이브러리의 기능을 평가하고 이해하기 위한 스크립트가 포함되어 있습니다.

    +

    오래된 OpenAI API (<1.0.0)에 의존하는 테스트가 많기 때문에, 새로운 OpenAI API의 사용 예는 openai_1.0_test.py에서 확인할 수 있습니다.

    +
      +
    • +

      simple_test.py

      +
        +
      • 설명: 라이브러리의 가장 간단한 사용법을 보여주는 "Hello World" 스타일의 데모.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 설명: 라이브러리의 대부분 기능을 포괄하는 종합적인 데모.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 설명: 로컬 Coqui TTS 엔진의 테스트.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하세요.
      • +
      • 설명: 6개의 다른 언어로 실시간 번역.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하십시오.
      • +
      • 설명: 시작 단어로 시작되는 음성 기반의 OpenAI API 인터페이스.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 의존성: pip install openai keyboard realtimestt를 실행하십시오.
      • +
      • 설명: TTS 엔진과 목소리를 선택하여 AI 대화를 시작하세요.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 의존성: pip install openai realtimestt 실행.
      • +
      • 説明: 20行のコードで作成されたシンプルなトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: ラージランゲージモデル(LLM)との統合の簡単なデモ。
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: コールバックを紹介し、実環境での待機時間をチェック可能。
      • +
      +
    • +
    +

    一時停止、再開 & 停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止したストリームを再開:

    +
    stream.resume()
    +
    +

    ストリームをすぐに停止:

    +
    stream.stop()
    +
    +

    必要要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必須: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリはCoquiのGitHubライブラリ「TTS」に依存しており、Pythonのこのバージョン範囲が必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するため

      +
    • +
    • +

      stream2sentence: 入力されるテキストストリームを文単位に分割するため

      +
    • +
    • +

      pyttsx3: システムテキスト読み上げエンジン

      +
    • +
    • +

      pydub: オーディオチャンクの形式変換用

      +
    • +
    • +

      azure-cognitiveservices-speech: Azureテキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabsテキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTS用CoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap研究所が管理するCoqui TTSのフォークに感謝。

    +
      +
    • +

      openai: OpenAIのTTS APIとのインタラクション用

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/usage/index.html b/ko/usage/index.html new file mode 100755 index 0000000..cd2b583 --- /dev/null +++ b/ko/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + Skip to content + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    사용 방법

    +

    빠른 시작

    +

    기본적인 사용 예는 다음과 같습니다:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +
    +engine = SystemEngine() # TTS 엔진을 지정
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    텍스트 피드

    +

    개별 문자열을 입력할 수 있습니다:

    +
    stream.feed("안녕하세요, 이것은 문장입니다.")
    +
    +

    실시간 스트리밍용 제너레이터나 문자 이터레이터를 피드하는 것도 가능합니다:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    재생

    +

    비동기 재생:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    동기 재생:

    +
    stream.play()
    +
    +

    라이브러리 테스트

    +

    test 서브디렉토리에는 RealtimeTTS 라이브러리의 기능을 평가하고 이해하기 위한 스크립트가 포함되어 있습니다.

    +

    오래된 OpenAI API (<1.0.0)에 의존하는 테스트가 많기 때문에, 새로운 OpenAI API의 사용 예는 openai_1.0_test.py에서 확인할 수 있습니다.

    +
      +
    • +

      simple_test.py

      +
        +
      • 설명: 라이브러리의 가장 간단한 사용법을 보여주는 "Hello World" 스타일의 데모.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 설명: 라이브러리의 대부분 기능을 포괄하는 종합적인 데모.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 설명: 로컬 Coqui TTS 엔진의 테스트.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하세요.
      • +
      • 설명: 6개의 다른 언어로 실시간 번역.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하십시오.
      • +
      • 설명: 시작 단어로 시작되는 음성 기반의 OpenAI API 인터페이스.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 의존성: pip install openai keyboard realtimestt를 실행하십시오.
      • +
      • 설명: TTS 엔진과 목소리를 선택하여 AI 대화를 시작하세요.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 의존성: pip install openai realtimestt 실행.
      • +
      • 説明: 20行のコードで作成されたシンプルなトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: ラージランゲージモデル(LLM)との統合の簡単なデモ。
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: コールバックを紹介し、実環境での待機時間をチェック可能。
      • +
      +
    • +
    +

    一時停止、再開 & 停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止したストリームを再開:

    +
    stream.resume()
    +
    +

    ストリームをすぐに停止:

    +
    stream.stop()
    +
    +

    必要要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必須: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリはCoquiのGitHubライブラリ「TTS」に依存しており、Pythonのこのバージョン範囲が必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するため

      +
    • +
    • +

      stream2sentence: 入力されるテキストストリームを文単位に分割するため

      +
    • +
    • +

      pyttsx3: システムテキスト読み上げエンジン

      +
    • +
    • +

      pydub: オーディオチャンクの形式変換用

      +
    • +
    • +

      azure-cognitiveservices-speech: Azureテキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabsテキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTS用CoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap研究所が管理するCoqui TTSのフォークに感謝。

    +
      +
    • +

      openai: OpenAIのTTS APIとのインタラクション用

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/zh/api/index.html b/ko/zh/api/index.html new file mode 100755 index 0000000..3d261db --- /dev/null +++ b/ko/zh/api/index.html @@ -0,0 +1,2791 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +

    配置

    +

    TextToAudioStream 的初始化参数

    +

    初始化 TextToAudioStream 类时,有多种选项可自定义其行为。以下是可用参数:

    +

    engine (BaseEngine)

    +
      +
    • 类型**: 基础引擎
    • +
    • 必需**: 是
    • +
    • 描述***: 负责文本到音频合成的底层引擎。您必须提供一个 BaseEngine 或其子类的实例才能启用音频合成。
    • +
    +

    on_text_stream_start(可调用)

    +
      +
    • 类型**: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 这个可选的回调函数会在文本流开始时触发。可用于任何设置或日志记录。
    • +
    +

    on_text_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当文本流结束时,这个可选的回调函数将被激活。可用于清理任务或日志记录。
    • +
    +

    on_audio_stream_start(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流启动时,会调用这个可选的回调函数。可用于用户界面更新或事件记录。
    • +
    +

    on_audio_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流停止时,会调用这个可选的回调函数。是资源清理或后处理任务的理想选择。
    • +
    +

    on_character(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 处理单个字符时调用此可选回调函数。
    • +
    +

    output_device_index (int)

    +
      +
    • 类型***: 整数
    • +
    • 要求**: 无
    • +
    • 默认**: 无
    • +
    • 描述***: 指定要使用的输出设备索引。无则使用默认设备。
    • +
    +

    tokenizer (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 无
    • +
    • 默认**: nltk
    • +
    • 描述**: 用于分句的标记符(目前支持 “nltk ”和 “stanza”)。
    • +
    +

    language (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 否
    • +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +

    muted (bool)

    +
      +
    • 类型***: 布尔
    • +
    • 要求**: 否
    • +
    • 默认**: 假
    • +
    • 描述***: 全局静音参数。如果为 True,则不会打开 pyAudio 流。禁止通过本地扬声器播放音频(以防要合成到文件或处理音频块),并覆盖播放参数静音设置。
    • +
    +

    level (int)

    +
      +
    • 类型**: 整数
    • +
    • 必须**: 无
    • +
    • 默认**: 日志警告
    • +
    • 描述***: 设置内部日志记录器的日志记录级别。可以是 Python 内置的 logging 模块中的任意整数常量。
    • +
    +

    使用示例:

    +
    engine = YourEngine() # 用你的引擎代替
    +stream = TextToAudioStream(
    +    engine=engine、
    +    on_text_stream_start=my_text_start_func、
    +    on_text_stream_stop=my_text_stop_func、
    +    on_audio_stream_start=my_audio_start_func、
    +    on_audio_stream_stop=my_audio_stop_func、
    +    级别=logging.INFO
    +)
    +
    +

    方法

    +

    playplay_async 方法

    +

    这些方法负责执行文本到音频的合成并播放音频流。不同之处在于,play 是一个阻塞函数,而 play_async 则在单独的线程中运行,允许其他操作继续进行。

    +
    参数:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 默认**: true
    • +
    • 描述***: 当设置为 “true ”时,该方法将优先考虑速度,以更快的速度生成和播放句子片段。这对延迟很重要的应用程序很有用。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 当设置为 “true ”时,快速句子片段处理适用于所有句子,而不仅仅是第一个句子。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 设置为 “true ”时,允许产生多个句子片段,而不是只有一个。
    • +
    +
    buffer_threshold_seconds (浮点数)
    +
      +
    • 默认值**: 0.0
    • +
    • +

      描述**: 指定缓冲阈值的时间(以秒为单位),它会影响音频播放的流畅性和连续性。

      +
    • +
    • +

      工作原理 在合成新句子之前,系统会检查缓冲区中剩余的音频资料是否多于 buffer_threshold_seconds指定的时间。如果是,系统就会从文本生成器中获取另一个句子,假设它能在缓冲区中剩余音频所提供的时间窗口内获取并合成这个新句子。这个过程可以让文本到语音引擎有更多的语境,从而更好地进行合成,增强用户体验。

      +
    • +
    +

    较高的值可确保有更多的预缓冲音频,减少播放过程中出现静音或间断的可能性。如果出现断句或停顿,请考虑增加该值。

    +
    minimum_sentence_length(int)
    +
      +
    • 默认10
    • +
    • 描述**: 设置将字符串视为句子进行合成的最小字符长度。这会影响文本块的处理和播放方式。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 默认值**: 10
    • +
    • 描述**: 第一个句子片段的最小字符数。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 启用后,记录合成为音频的文本块。有助于审计和调试。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 默认**: true
    • +
    • 描述**: 如果为 True,则在处理前重置生成的文本。
    • +
    +
    output_wavfile (str)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 如果设置为 “是”,则将音频保存到指定的 WAV 文件中。
    • +
    +
    on_sentence_synthesized(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成一个句子片段后调用的回调函数。
    • +
    +
    before_sentence_synthesized (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成单个句子片段之前调用的回调函数。
    • +
    +
    on_audio_chunk(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 单个音频片段准备就绪时调用的回调函数。
    • +
    +
    tokenizer (str)
    +
      +
    • 默认**: “nltk”
    • +
    • 描述**: 用于分句的标记符。目前支持 “nltk ”和 “stanza”。
    • +
    +
    tokenize_sentences (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 从输入文本中标记句子的自定义函数。如果对 nltk 和 stanza 不满意,可以提供自己的轻量级标记符。它应以字符串形式接收文本,并以字符串列表形式返回拆分后的句子。
    • +
    +
    language (str)
    +
      +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +
    context_size (int)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 用于建立句子边界检测上下文的字符数。上下文越大,检测句子边界的准确性就越高。
    • +
    +
    context_size_look_overhead (整数)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 检测句子边界时用于前瞻的额外上下文大小。
    • +
    +
    muted (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述***: 如果为 True,则禁止通过本地扬声器播放音频。当您想合成一个文件或处理音频块而不播放它们时,此功能非常有用。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 默认**: “.?!;:,\n...)]}。-”
    • +
    • 描述**: 被视为句子分隔符的字符串。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 默认值**: 15
    • +
    • 描述***: 强制产生第一个句子片段的字数。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/zh/contributing/index.html b/ko/zh/contributing/index.html new file mode 100755 index 0000000..df8a45d --- /dev/null +++ b/ko/zh/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    向 RealtimeTTS 投稿

    +

    我们欢迎您为 RealtimeTTS 投稿!您可以通过以下方式为 RealtimeTTS 投稿:

    +
      +
    1. +

      报告错误: 如果您发现了错误,请在我们的 GitHub 存储库 上打开一个问题。

      +
    2. +
    3. +

      提出改进建议: 有关于新功能或改进的想法吗?我们很乐意倾听!打开问题,提出改进建议。

      +
    4. +
    5. +

      代码贡献: 想要添加新功能或修复错误?太好了!请按照以下步骤操作:

      +
    6. +
    7. 分叉版本库
    8. +
    9. 为您的功能创建一个新分支
    10. +
    11. 进行更改
    12. +
    13. +

      提交一个拉取请求,清楚地描述您的更改

      +
    14. +
    15. +

      文档: 通过修正错别字、添加示例或澄清易混淆的部分来帮助我们改进文档。

      +
    16. +
    17. +

      添加新引擎: 如果您想添加对新 TTS 引擎的支持,请先打开一个问题来讨论实现方法。

      +
    18. +
    +

    感谢您帮助改进 RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/zh/faq/index.html b/ko/zh/faq/index.html new file mode 100755 index 0000000..9e44041 --- /dev/null +++ b/ko/zh/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    常见问题

    +

    有关 RealtimeTTS 常见问题的解答,请参阅我们的 GitHub 上的常见问题页面

    +

    该页面涵盖各种主题,包括

    +
      +
    • 不同 TTS 引擎的使用
    • +
    • 处理多语言文本
    • +
    • 性能优化
    • +
    • 常见问题的故障排除
    • +
    +

    更多详细信息,请访问以上链接。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/zh/index.html b/ko/zh/index.html new file mode 100755 index 0000000..1f28674 --- /dev/null +++ b/ko/zh/index.html @@ -0,0 +1,1937 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    易于使用、低延迟、适用于实时应用的文本到语音库

    +

    项目简介

    +

    RealtimeTTS 是专为实时应用设计的最先进的文本转语音(TTS)库。它能将文本流快速转换为高质量的听觉输出,并将延迟降到最低。

    +

    关键功能

    +
      +
    • 低延迟**:文本到语音的转换几乎瞬时完成,与 LLM 输出兼容
    • +
    • 高质量音频**:生成清晰自然的语音
    • +
    • 支持多种 TTS 引擎**:支持 OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS 和 System TTS
    • +
    • 多种语言**
    • +
    • 稳定可靠**:通过后备机制确保持续运行,在出现中断时切换到替代引擎,保证性能和可靠性的一致性
    • +
    +

    有关安装说明、使用示例和 API 参考,请使用侧边栏浏览文档。

    +

    通过DeepL.com(免费版)翻译

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/zh/installation/index.html b/ko/zh/installation/index.html new file mode 100755 index 0000000..b4d01bc --- /dev/null +++ b/ko/zh/installation/index.html @@ -0,0 +1,2274 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    中文

    + +
    +

    注意: 不再推荐使用 pip install realtimetts 进行基本安装,而应使用 pip install realtimetts[all]

    +
    +

    RealtimeTTS 库为您的用例提供了各种依赖项的安装选项。以下是根据需要安装 RealtimeTTS 的不同方法:

    +

    完整安装

    +

    安装支持所有 TTS 引擎的 RealtimeTTS:

    +
    pip install -U realtimetts[all]
    +
    +

    定制安装

    +

    RealtimeTTS 允许使用最少的库安装进行自定义安装。以下是可用选项: +- 全部: 完全安装所有支持的引擎。 +- *系统: 包括特定系统的 TTS 功能(如 pyttsx3)。 +- azure: 添加 Azure 认知服务语音支持。 +- elevenlabs: 包括与 ElevenLabs API 的集成。 +- openai: 用于 OpenAI 语音服务。 +- gtts: 支持谷歌文本到语音。 +- coqui: 安装 Coqui TTS 引擎。 +- minimal: 只安装基本要求,不安装引擎(只有当你想开发自己的引擎时才需要)。

    +

    如果您只想为本地神经元 Coqui TTS 安装 RealtimeTTS,则应使用

    +
    pip install realtimetts[coqui]
    +
    +

    例如,如果您想安装只支持 Azure 认知服务语音、ElevenLabs 和 OpenAI 的 RealtimeTTS:

    +
    pip install realtimetts[azure,elevenlabs,openai].
    +
    +

    虚拟环境安装

    +

    如果想在虚拟环境中进行完整安装,请按照以下步骤操作:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    有关 CUDA 安装 的更多信息。

    +

    引擎要求

    +

    RealtimeTTS 支持的不同引擎有其独特的要求。请根据所选引擎确保满足这些要求。

    +

    系统引擎

    +

    系统引擎 "开箱即用,具有系统内置的 TTS 功能。无需额外设置。

    +

    GTTS 引擎

    +

    GTTSEngine "开箱即用,使用谷歌翻译的文本到语音 API。无需额外设置。

    +

    OpenAIEngine

    +

    要使用 OpenAIEngine: +- 设置环境变量 OPENAI_API_KEY +- 安装 ffmpeg(参见 CUDA 安装 第 3 点)

    +

    AzureEngine

    +

    要使用 “AzureEngine”,你需要 +- Microsoft Azure 文本到语音 API 密钥(通过 AzureEngine 构造函数参数 “speech_key ”或环境变量 AZURE_SPEECH_KEY 提供) +- Microsoft Azure 服务区域。

    +

    在初始化 AzureEngine 时,确保这些凭据可用并配置正确。

    +

    ElevenlabsEngine

    +

    使用 ElevenlabsEngine 时需要 +- Elevenlabs API 密钥(通过 ElevenlabsEngine 构造函数参数 “api_key ”或环境变量 ELEVENLABS_API_KEY 提供) +- 系统中已安装 mpv(用于流式传输 mpeg 音频,Elevenlabs 仅提供 mpeg)。

    +

    🔹 安装 mpv: + - macOS**: + brew install mpv

    +
      +
    • Linux和Windows: 请访问 mpv.io 获取安装说明。
    • +
    +

    CoquiEngine

    +

    通过语音克隆提供高质量的本地神经 TTS。

    +

    首先下载一个神经 TTS 模型。在大多数情况下,使用 GPU 合成的实时速度足够快。需要大约 4-5GB VRAM。

    +
      +
    • 要克隆语音,请将包含源语音的波形文件的文件名作为 “语音 ”参数提交给 CoquiEngine 构造函数
    • +
    • 语音克隆最好使用 22050 Hz 单声道 16 位 WAV 文件,其中包含一个短(约 5-30 秒)样本
    • +
    +

    在大多数系统上,需要 GPU 的支持才能以足够快的速度实时运行,否则会出现卡顿现象。

    +

    CUDA 安装

    +

    这些步骤适用于那些需要更好性能并且拥有兼容的NVIDIA GPU的人。

    +
    +

    注意要检查您的NVIDIA GPU是否支持CUDA,请访问官方CUDA GPU列表

    +
    +

    要使用支持CUDA的torch,请按照以下步骤操作:

    +
    +

    注意较新的 PyTorch 安装 可能(未经验证)不再需要安装 Toolkit(可能也不需要安装 cuDNN)。

    +
    +
      +
    1. +

      安装 NVIDIA CUDA Toolkit: + 例如,要安装 Toolkit 12.X,请

      +
        +
      • 访问 NVIDIA CUDA 下载
      • +
      • 选择你的操作系统、系统架构和操作系统版本。
      • +
      • 下载并安装软件。
      • +
      +

      或者要安装 Toolkit 11.8,请 +- 访问 NVIDIA CUDA Toolkit Archive。 +- 选择您的操作系统、系统架构和操作系统版本。 +- 下载并安装软件。

      +
    2. +
    3. +

      安装 NVIDIA cuDNN

      +

      例如,要为CUDA 11.x安装cuDNN 8.7.0,请 +- 访问NVIDIA cuDNN归档。 +- 点击“下载 cuDNN v8.7.0(2022年11月28日),适用于 CUDA 11.x”。 +- 下载并安装软件。

      +
    4. +
    5. +

      安装 ffmpeg

      +

      您可以从 ffmpeg 网站 下载适用于您操作系统的安装程序。

      +

      或者使用包管理器:

      +
        +
      • +

        在 Ubuntu 或 Debian 上: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        在 Arch Linux 上: + sudo pacman -S ffmpeg

        +
      • +
      • +

        在使用 Homebrew 的 MacOS 上 (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        在Windows上使用Chocolatey (https://chocolatey.org/): + ``` + choco install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **在Windows上使用Scoop** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```plaintext
    +        scoop install ffmpeg
    +        ```
    +
    +4. **安装带有CUDA支持的PyTorch**:
    +
    +    要升级您的PyTorch安装以启用CUDA的GPU支持,请根据您的具体CUDA版本遵循以下说明。 如果您希望通过CUDA功能提升RealtimeSTT的性能,这将非常有用。
    +
    +    - **对于CUDA 11.8:**
    +
    +        要更新 PyTorch 和 Torchaudio 以支持 CUDA 11.8,请使用以下命令:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        文本待翻译:```
    +
    +- **对于CUDA 12.X:**
    +
    +
    +    要更新 PyTorch 和 Torchaudio 以支持 CUDA 12.X,请执行以下操作:
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +文本待翻译:

    +
    将 `2.3.1` 替换为适合您的系统和需求的 PyTorch 版本。
    +
    +
      +
    1. 修复以解决兼容性问题: + 如果你遇到库兼容性问题,尝试将这些库设置为固定版本:
    2. +
    +

    文本翻译:```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/ko/zh/usage/index.html b/ko/zh/usage/index.html new file mode 100755 index 0000000..3cd236b --- /dev/null +++ b/ko/zh/usage/index.html @@ -0,0 +1,2149 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 콘텐츠로 이동 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    用法

    +

    快速开始

    +

    这是一个基本的使用示例:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # 替换为你的TTS引擎 +流 = 文本转语音流(engine) +stream.feed("你好,世界!") 你今天怎么样? +stream.play_async()

    +

    供稿文本

    +

    你可以输入单个字符串:

    +
    stream.feed("你好,这是一句话。")
    +
    +

    或者你可以为实时流媒体提供生成器和字符迭代器:

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```聊天完成。创建(
    +        模型="gpt-3.5-turbo",
    +        消息=[{"角色": "用户", "内容": prompt}],
    +        流式=True
    +    ):
    +        如果 (text_chunk := chunk["choices"]上下文:[0]  
    +文本翻译:[0]["德尔塔"].get("content")) 不是 None:
    +            生成文本块
    +
    +文本流 = 写入("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +```python
    +char_iterator = iter("逐字符流式传输。")
    +stream.feed(char_iterator)
    +
    +

    播放

    +

    异步地:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同步:

    +
    stream.play()
    +
    +

    测试库

    +

    测试子目录包含一组脚本,帮助您评估和理解RealtimeTTS库的功能。

    +

    请注意,大多数测试仍然依赖于“旧”的OpenAI API(<1.0.0)。 在 openai_1.0_test.py 中演示了新 OpenAI API 的用法。

    +
      +
    • +

      simple_test.py

      +
        +
      • 描述:一个“你好,世界”风格的演示,展示了该库的最简单用法。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 描述:一个全面的演示,展示了该库提供的大多数功能。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 描述:本地coqui TTS引擎的测试。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述:实时翻译成六种不同的语言。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 唤醒词激活并通过语音界面访问OpenAI API。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依赖项: 运行 pip install openai keyboard realtimestt
      • +
      • 描述: 在开始AI对话之前选择TTS引擎和声音。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 一个20行代码的基本对话机器人。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 如何将库与大型语言模型集成的简单演示 (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 展示回调并让您在实际应用环境中检查延迟时间。
      • +
      +
    • +
    +

    暂停、继续和停止

    +

    暂停音频流:

    +
    stream.pause()
    +
    +

    恢复暂停的直播:

    +
    stream.resume()
    +
    +

    立即停止直播:

    +
    stream.stop()
    +
    +

    需求说明

    +
      +
    • Python 版本
    • +
    • 要求:Python >= 3.9,< 3.13
    • +
    • +

      原因: 该库依赖于来自coqui的GitHub库“TTS”,该库需要在此范围内的Python版本。

      +
    • +
    • +

      PyAudio:用于创建输出音频流

      +
    • +
    • +

      stream2sentence:将输入的文本流拆分成句子

      +
    • +
    • +

      pyttsx3:系统文本转语音引擎

      +
    • +
    • +

      pydub:用于转换音频块格式

      +
    • +
    • +

      azure-cognitiveservices-speech:Azure 语音合成引擎

      +
    • +
    • +

      elevenlabs:Elevenlabs 文字转语音转换引擎

      +
    • +
    • +

      coqui-TTS:Coqui的XTTS文本转语音库,用于高质量本地神经TTS

      +
    • +
    +

    Idiap研究所致敬,感谢他们维护了coqui tts的一个分支

    +
      +
    • +

      openai:与OpenAI的TTS API互动

      +
    • +
    • +

      gtts:谷歌翻译文本转语音转换

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/search/search_index.json b/search/search_index.json deleted file mode 100755 index 93650d9..0000000 --- a/search/search_index.json +++ /dev/null @@ -1 +0,0 @@ -{"config":{"lang":["en","fr","es"],"separator":"[\\s\\-]+","pipeline":["stopWordFilter"]},"docs":[{"location":"en/","title":"RealtimeTTS","text":"

    EN | FR | ES

    Easy to use, low-latency text-to-speech library for realtime applications

    "},{"location":"en/#about-the-project","title":"About the Project","text":"

    RealtimeTTS is a state-of-the-art text-to-speech (TTS) library designed for real-time applications. It stands out in its ability to convert text streams fast into high-quality auditory output with minimal latency.

    "},{"location":"en/#key-features","title":"Key Features","text":"

    For installation instructions, usage examples, and API reference, please navigate through the documentation using the sidebar.

    "},{"location":"en/api/","title":"English","text":""},{"location":"en/api/#configuration","title":"Configuration","text":""},{"location":"en/api/#initialization-parameters-for-texttoaudiostream","title":"Initialization Parameters for TextToAudioStream","text":"

    When you initialize the TextToAudioStream class, you have various options to customize its behavior. Here are the available parameters:

    "},{"location":"en/api/#engine-baseengine","title":"engine (BaseEngine)","text":""},{"location":"en/api/#on_text_stream_start-callable","title":"on_text_stream_start (callable)","text":""},{"location":"en/api/#on_text_stream_stop-callable","title":"on_text_stream_stop (callable)","text":""},{"location":"en/api/#on_audio_stream_start-callable","title":"on_audio_stream_start (callable)","text":""},{"location":"en/api/#on_audio_stream_stop-callable","title":"on_audio_stream_stop (callable)","text":""},{"location":"en/api/#on_character-callable","title":"on_character (callable)","text":""},{"location":"en/api/#output_device_index-int","title":"output_device_index (int)","text":""},{"location":"en/api/#tokenizer-string","title":"tokenizer (string)","text":""},{"location":"en/api/#language-string","title":"language (string)","text":""},{"location":"en/api/#muted-bool","title":"muted (bool)","text":""},{"location":"en/api/#level-int","title":"level (int)","text":""},{"location":"en/api/#example-usage","title":"Example Usage:","text":"
    engine = YourEngine()  # Substitute with your engine\nstream = TextToAudioStream(\n    engine=engine,\n    on_text_stream_start=my_text_start_func,\n    on_text_stream_stop=my_text_stop_func,\n    on_audio_stream_start=my_audio_start_func,\n    on_audio_stream_stop=my_audio_stop_func,\n    level=logging.INFO\n)\n
    "},{"location":"en/api/#methods","title":"Methods","text":""},{"location":"en/api/#play-and-play_async","title":"play and play_async","text":"

    These methods are responsible for executing the text-to-audio synthesis and playing the audio stream. The difference is that play is a blocking function, while play_async runs in a separate thread, allowing other operations to proceed.

    "},{"location":"en/api/#parameters","title":"Parameters:","text":""},{"location":"en/api/#fast_sentence_fragment-bool","title":"fast_sentence_fragment (bool)","text":""},{"location":"en/api/#fast_sentence_fragment_allsentences-bool","title":"fast_sentence_fragment_allsentences (bool)","text":""},{"location":"en/api/#fast_sentence_fragment_allsentences_multiple-bool","title":"fast_sentence_fragment_allsentences_multiple (bool)","text":""},{"location":"en/api/#buffer_threshold_seconds-float","title":"buffer_threshold_seconds (float)","text":"

    A higher value ensures that there's more pre-buffered audio, reducing the likelihood of silence or gaps during playback. If you experience breaks or pauses, consider increasing this value.

    "},{"location":"en/api/#minimum_sentence_length-int","title":"minimum_sentence_length (int)","text":""},{"location":"en/api/#minimum_first_fragment_length-int","title":"minimum_first_fragment_length (int)","text":""},{"location":"en/api/#log_synthesized_text-bool","title":"log_synthesized_text (bool)","text":""},{"location":"en/api/#reset_generated_text-bool","title":"reset_generated_text (bool)","text":""},{"location":"en/api/#output_wavfile-str","title":"output_wavfile (str)","text":""},{"location":"en/api/#on_sentence_synthesized-callable","title":"on_sentence_synthesized (callable)","text":""},{"location":"en/api/#before_sentence_synthesized-callable","title":"before_sentence_synthesized (callable)","text":""},{"location":"en/api/#on_audio_chunk-callable","title":"on_audio_chunk (callable)","text":""},{"location":"en/api/#tokenizer-str","title":"tokenizer (str)","text":""},{"location":"en/api/#tokenize_sentences-callable","title":"tokenize_sentences (callable)","text":""},{"location":"en/api/#language-str","title":"language (str)","text":""},{"location":"en/api/#context_size-int","title":"context_size (int)","text":""},{"location":"en/api/#context_size_look_overhead-int","title":"context_size_look_overhead (int)","text":""},{"location":"en/api/#muted-bool_1","title":"muted (bool)","text":""},{"location":"en/api/#sentence_fragment_delimiters-str","title":"sentence_fragment_delimiters (str)","text":""},{"location":"en/api/#force_first_fragment_after_words-int","title":"force_first_fragment_after_words (int)","text":""},{"location":"en/contributing/","title":"Contributing to RealtimeTTS","text":"

    We welcome contributions to RealtimeTTS! Here are some ways you can contribute:

    1. Reporting Bugs: If you find a bug, please open an issue on our GitHub repository.

    2. Suggesting Enhancements: Have ideas for new features or improvements? We'd love to hear them! Open an issue to suggest enhancements.

    3. Code Contributions: Want to add a new feature or fix a bug? Great! Please follow these steps:

    4. Fork the repository
    5. Create a new branch for your feature
    6. Make your changes
    7. Submit a pull request with a clear description of your changes

    8. Documentation: Help us improve our documentation by fixing typos, adding examples, or clarifying confusing sections.

    9. Adding New Engines: If you want to add support for a new TTS engine, please open an issue first to discuss the implementation.

    Thank you for helping make RealtimeTTS better!

    "},{"location":"en/faq/","title":"Frequently Asked Questions","text":"

    For answers to frequently asked questions about RealtimeTTS, please refer to our FAQ page on GitHub.

    This page covers various topics including:

    For more detailed information, please visit the link above.

    "},{"location":"en/installation/","title":"English","text":"

    Note: Basic Installation with pip install realtimetts is not recommended anymore, use pip install realtimetts[all] instead.

    The RealtimeTTS library provides installation options for various dependencies for your use case. Here are the different ways you can install RealtimeTTS depending on your needs:

    "},{"location":"en/installation/#full-installation","title":"Full Installation","text":"

    To install RealtimeTTS with support for all TTS engines:

    pip install -U realtimetts[all]\n
    "},{"location":"en/installation/#custom-installation","title":"Custom Installation","text":"

    RealtimeTTS allows for custom installation with minimal library installations. Here are the options available: - all: Full installation with every engine supported. - system: Includes system-specific TTS capabilities (e.g., pyttsx3). - azure: Adds Azure Cognitive Services Speech support. - elevenlabs: Includes integration with ElevenLabs API. - openai: For OpenAI voice services. - gtts: Google Text-to-Speech support. - coqui: Installs the Coqui TTS engine. - minimal: Installs only the base requirements with no engine (only needed if you want to develop an own engine)

    Say you want to install RealtimeTTS only for local neuronal Coqui TTS usage, then you should use:

    pip install realtimetts[coqui]\n

    For example, if you want to install RealtimeTTS with only Azure Cognitive Services Speech, ElevenLabs, and OpenAI support:

    pip install realtimetts[azure,elevenlabs,openai]\n
    "},{"location":"en/installation/#virtual-environment-installation","title":"Virtual Environment Installation","text":"

    For those who want to perform a full installation within a virtual environment, follow these steps:

    python -m venv env_realtimetts\nenv_realtimetts\\Scripts\\activate.bat\npython.exe -m pip install --upgrade pip\npip install -U realtimetts[all]\n

    More information about CUDA installation.

    "},{"location":"en/installation/#engine-requirements","title":"Engine Requirements","text":"

    Different engines supported by RealtimeTTS have unique requirements. Ensure you fulfill these requirements based on the engine you choose.

    "},{"location":"en/installation/#systemengine","title":"SystemEngine","text":"

    The SystemEngine works out of the box with your system's built-in TTS capabilities. No additional setup is needed.

    "},{"location":"en/installation/#gttsengine","title":"GTTSEngine","text":"

    The GTTSEngine works out of the box using Google Translate's text-to-speech API. No additional setup is needed.

    "},{"location":"en/installation/#openaiengine","title":"OpenAIEngine","text":"

    To use the OpenAIEngine: - set environment variable OPENAI_API_KEY - install ffmpeg (see CUDA installation point 3)

    "},{"location":"en/installation/#azureengine","title":"AzureEngine","text":"

    To use the AzureEngine, you will need: - Microsoft Azure Text-to-Speech API key (provided via AzureEngine constructor parameter \"speech_key\" or in the environment variable AZURE_SPEECH_KEY) - Microsoft Azure service region.

    Make sure you have these credentials available and correctly configured when initializing the AzureEngine.

    "},{"location":"en/installation/#elevenlabsengine","title":"ElevenlabsEngine","text":"

    For the ElevenlabsEngine, you need: - Elevenlabs API key (provided via ElevenlabsEngine constructor parameter \"api_key\" or in the environment variable ELEVENLABS_API_KEY) - mpv installed on your system (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    \ud83d\udd39 Installing mpv: - macOS: brew install mpv

    "},{"location":"en/installation/#coquiengine","title":"CoquiEngine","text":"

    Delivers high quality, local, neural TTS with voice-cloning.

    Downloads a neural TTS model first. In most cases it be fast enough for Realtime using GPU synthesis. Needs around 4-5 GB VRAM.

    On most systems GPU support will be needed to run fast enough for realtime, otherwise you will experience stuttering.

    "},{"location":"en/installation/#cuda-installation","title":"CUDA installation","text":"

    These steps are recommended for those who require better performance and have a compatible NVIDIA GPU.

    Note: to check if your NVIDIA GPU supports CUDA, visit the official CUDA GPUs list.

    To use a torch with support via CUDA please follow these steps:

    Note: newer pytorch installations may (unverified) not need Toolkit (and possibly cuDNN) installation anymore.

    1. Install NVIDIA CUDA Toolkit: For example, to install Toolkit 12.X, please

      • Visit NVIDIA CUDA Downloads.
      • Select your operating system, system architecture, and os version.
      • Download and install the software.

      or to install Toolkit 11.8, please - Visit NVIDIA CUDA Toolkit Archive. - Select your operating system, system architecture, and os version. - Download and install the software.

    2. Install NVIDIA cuDNN:

      For example, to install cuDNN 8.7.0 for CUDA 11.x please - Visit NVIDIA cuDNN Archive. - Click on \"Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x\". - Download and install the software.

    3. Install ffmpeg:

      You can download an installer for your OS from the ffmpeg Website.

      Or use a package manager:

      • On Ubuntu or Debian: sudo apt update && sudo apt install ffmpeg

      • On Arch Linux: sudo pacman -S ffmpeg

      • On MacOS using Homebrew (https://brew.sh/): brew install ffmpeg

      • On Windows using Chocolatey (https://chocolatey.org/): choco install ffmpeg

      • On Windows using Scoop (https://scoop.sh/): scoop install ffmpeg

    4. Install PyTorch with CUDA support:

      To upgrade your PyTorch installation to enable GPU support with CUDA, follow these instructions based on your specific CUDA version. This is useful if you wish to enhance the performance of RealtimeSTT with CUDA capabilities.

      • For CUDA 11.8:

        To update PyTorch and Torchaudio to support CUDA 11.8, use the following commands:

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

      • For CUDA 12.X:

        To update PyTorch and Torchaudio to support CUDA 12.X, execute the following:

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

      Replace 2.3.1 with the version of PyTorch that matches your system and requirements.

    5. Fix for to resolve compatibility issues: If you run into library compatibility issues, try setting these libraries to fixed versions:

    ```

    pip install networkx==2.8.8\n\npip install typing_extensions==4.8.0\n\npip install fsspec==2023.6.0\n\npip install imageio==2.31.6\n\npip install networkx==2.8.8\n\npip install numpy==1.24.3\n\npip install requests==2.31.0\n

    ```

    "},{"location":"en/usage/","title":"Usage","text":""},{"location":"en/usage/#quick-start","title":"Quick Start","text":"

    Here's a basic usage example:

    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine\n\nengine = SystemEngine() # replace with your TTS engine\nstream = TextToAudioStream(engine)\nstream.feed(\"Hello world! How are you today?\")\nstream.play_async()\n
    "},{"location":"en/usage/#feed-text","title":"Feed Text","text":"

    You can feed individual strings:

    stream.feed(\"Hello, this is a sentence.\")\n

    Or you can feed generators and character iterators for real-time streaming:

    def write(prompt: str):\n    for chunk in openai.ChatCompletion.create(\n        model=\"gpt-3.5-turbo\",\n        messages=[{\"role\": \"user\", \"content\" : prompt}],\n        stream=True\n    ):\n        if (text_chunk := chunk[\"choices\"][0][\"delta\"].get(\"content\")) is not None:\n            yield text_chunk\n\ntext_stream = write(\"A three-sentence relaxing speech.\")\n\nstream.feed(text_stream)\n
    char_iterator = iter(\"Streaming this character by character.\")\nstream.feed(char_iterator)\n
    "},{"location":"en/usage/#playback","title":"Playback","text":"

    Asynchronously:

    stream.play_async()\nwhile stream.is_playing():\n    time.sleep(0.1)\n

    Synchronously:

    stream.play()\n
    "},{"location":"en/usage/#testing-the-library","title":"Testing the Library","text":"

    The test subdirectory contains a set of scripts to help you evaluate and understand the capabilities of the RealtimeTTS library.

    Note that most of the tests still rely on the \"old\" OpenAI API (<1.0.0). Usage of the new OpenAI API is demonstrated in openai_1.0_test.py.

    "},{"location":"en/usage/#pause-resume-stop","title":"Pause, Resume & Stop","text":"

    Pause the audio stream:

    stream.pause()\n

    Resume a paused stream:

    stream.resume()\n

    Stop the stream immediately:

    stream.stop()\n
    "},{"location":"en/usage/#requirements-explained","title":"Requirements Explained","text":"

    Shoutout to Idiap Research Institute for maintaining a fork of coqui tts.

    "},{"location":"es/","title":"RealtimeTTS","text":"

    EN | FR | ES

    *Biblioteca de conversi\u00f3n de texto en voz f\u00e1cil de usar y de baja latencia para aplicaciones en tiempo real.

    "},{"location":"es/#acerca-del-proyecto","title":"Acerca del proyecto","text":"

    RealtimeTTS es una biblioteca de texto a voz (TTS) de \u00faltima generaci\u00f3n dise\u00f1ada para aplicaciones en tiempo real. Destaca por su capacidad para convertir r\u00e1pidamente flujos de texto en salida auditiva de alta calidad con una latencia m\u00ednima.

    "},{"location":"es/#caracteristicas-principales","title":"Caracter\u00edsticas principales","text":"

    Para obtener instrucciones de instalaci\u00f3n, ejemplos de uso y referencias de la API, navegue por la documentaci\u00f3n utilizando la barra lateral.

    "},{"location":"es/api/","title":"TextToAudioStream - Documentaci\u00f3n en Espa\u00f1ol","text":""},{"location":"es/api/#configuracion","title":"Configuraci\u00f3n","text":""},{"location":"es/api/#parametros-de-inicializacion-para-texttoaudiostream","title":"Par\u00e1metros de Inicializaci\u00f3n para TextToAudioStream","text":"

    Cuando inicializa la clase TextToAudioStream, tiene varias opciones para personalizar su comportamiento. Aqu\u00ed est\u00e1n los par\u00e1metros disponibles:

    "},{"location":"es/api/#parametros-principales","title":"Par\u00e1metros Principales","text":""},{"location":"es/api/#engine-baseengine","title":"engine (BaseEngine)","text":""},{"location":"es/api/#on_text_stream_start-callable","title":"on_text_stream_start (callable)","text":""},{"location":"es/api/#on_text_stream_stop-callable","title":"on_text_stream_stop (callable)","text":""},{"location":"es/api/#on_audio_stream_start-callable","title":"on_audio_stream_start (callable)","text":""},{"location":"es/api/#on_audio_stream_stop-callable","title":"on_audio_stream_stop (callable)","text":""},{"location":"es/api/#on_character-callable","title":"on_character (callable)","text":""},{"location":"es/api/#output_device_index-int","title":"output_device_index (int)","text":""},{"location":"es/api/#tokenizer-string","title":"tokenizer (string)","text":""},{"location":"es/api/#language-string","title":"language (string)","text":""},{"location":"es/api/#muted-bool","title":"muted (bool)","text":""},{"location":"es/api/#level-int","title":"level (int)","text":""},{"location":"es/api/#ejemplo-de-uso","title":"Ejemplo de Uso","text":"
    engine = YourEngine()  # Sustituya con su motor\nstream = TextToAudioStream(\n    engine=engine,\n    on_text_stream_start=my_text_start_func,\n    on_text_stream_stop=my_text_stop_func,\n    on_audio_stream_start=my_audio_start_func,\n    on_audio_stream_stop=my_audio_stop_func,\n    level=logging.INFO\n)\n
    "},{"location":"es/api/#metodos","title":"M\u00e9todos","text":""},{"location":"es/api/#play-y-play_async","title":"play y play_async","text":"

    Estos m\u00e9todos son responsables de ejecutar la s\u00edntesis de texto a audio y reproducir el flujo de audio. La diferencia es que play es una funci\u00f3n bloqueante, mientras que play_async se ejecuta en un hilo separado, permitiendo que otras operaciones contin\u00faen.

    "},{"location":"es/api/#parametros-de-reproduccion","title":"Par\u00e1metros de Reproducci\u00f3n","text":""},{"location":"es/api/#fast_sentence_fragment-bool","title":"fast_sentence_fragment (bool)","text":""},{"location":"es/api/#fast_sentence_fragment_allsentences-bool","title":"fast_sentence_fragment_allsentences (bool)","text":""},{"location":"es/api/#fast_sentence_fragment_allsentences_multiple-bool","title":"fast_sentence_fragment_allsentences_multiple (bool)","text":""},{"location":"es/api/#buffer_threshold_seconds-float","title":"buffer_threshold_seconds (float)","text":"

    C\u00f3mo funciona: Antes de sintetizar una nueva oraci\u00f3n, el sistema verifica si queda m\u00e1s material de audio en el b\u00fafer que el tiempo especificado. Un valor m\u00e1s alto asegura que haya m\u00e1s audio pre-almacenado en el b\u00fafer.

    "},{"location":"es/api/#minimum_sentence_length-int","title":"minimum_sentence_length (int)","text":""},{"location":"es/api/#minimum_first_fragment_length-int","title":"minimum_first_fragment_length (int)","text":""},{"location":"es/api/#log_synthesized_text-bool","title":"log_synthesized_text (bool)","text":""},{"location":"es/api/#reset_generated_text-bool","title":"reset_generated_text (bool)","text":""},{"location":"es/api/#output_wavfile-str","title":"output_wavfile (str)","text":""},{"location":"es/api/#funciones-de-callback","title":"Funciones de Callback","text":""},{"location":"es/api/#on_sentence_synthesized-callable","title":"on_sentence_synthesized (callable)","text":""},{"location":"es/api/#before_sentence_synthesized-callable","title":"before_sentence_synthesized (callable)","text":""},{"location":"es/api/#on_audio_chunk-callable","title":"on_audio_chunk (callable)","text":""},{"location":"es/api/#configuracion-de-tokenizacion","title":"Configuraci\u00f3n de Tokenizaci\u00f3n","text":""},{"location":"es/api/#tokenizer-str","title":"tokenizer (str)","text":""},{"location":"es/api/#tokenize_sentences-callable","title":"tokenize_sentences (callable)","text":""},{"location":"es/api/#language-str","title":"language (str)","text":""},{"location":"es/api/#parametros-de-contexto","title":"Par\u00e1metros de Contexto","text":""},{"location":"es/api/#context_size-int","title":"context_size (int)","text":""},{"location":"es/api/#context_size_look_overhead-int","title":"context_size_look_overhead (int)","text":""},{"location":"es/api/#otros-parametros","title":"Otros Par\u00e1metros","text":""},{"location":"es/api/#muted-bool_1","title":"muted (bool)","text":""},{"location":"es/api/#sentence_fragment_delimiters-str","title":"sentence_fragment_delimiters (str)","text":""},{"location":"es/api/#force_first_fragment_after_words-int","title":"force_first_fragment_after_words (int)","text":""},{"location":"es/contributing/","title":"Contribuir a RealtimeTTS","text":"

    Agradecemos cualquier contribuci\u00f3n a RealtimeTTS. Aqu\u00ed tienes algunas formas de contribuir:

    1. Informar de errores: Si encuentras un error, por favor abre una incidencia en nuestro repositorio GitHub.

    2. Sugerir mejoras: \u00bfTienes ideas para nuevas funciones o mejoras? Nos encantar\u00eda escucharlas. Abre una incidencia para sugerir mejoras.

    3. Contribuciones de c\u00f3digo: \u00bfQuieres a\u00f1adir una nueva funci\u00f3n o corregir un error? \u00a1Perfecto! Sigue estos pasos:

    4. Abre el repositorio
    5. Crea una nueva rama para tu funci\u00f3n
    6. Realice los cambios
    7. Env\u00eda un pull request con una descripci\u00f3n clara de tus cambios

    8. Documentaci\u00f3n: Ay\u00fadanos a mejorar nuestra documentaci\u00f3n corrigiendo erratas, a\u00f1adiendo ejemplos o aclarando secciones confusas.

    9. A\u00f1adir nuevos motores: Si quieres a\u00f1adir soporte para un nuevo motor TTS, por favor abre una incidencia primero para discutir la implementaci\u00f3n.

    Gracias por ayudarnos a mejorar RealtimeTTS.

    "},{"location":"es/faq/","title":"Preguntas frecuentes","text":"

    Para obtener respuestas a las preguntas m\u00e1s frecuentes sobre RealtimeTTS, consulta nuestra p\u00e1gina de preguntas frecuentes en GitHub.

    Esta p\u00e1gina cubre varios temas, entre ellos

    Para obtener informaci\u00f3n m\u00e1s detallada, visite el enlace anterior.

    "},{"location":"es/installation/","title":"Espa\u00f1ol","text":"

    Nota: Ya no se recomienda la instalaci\u00f3n b\u00e1sica con pip install realtimetts, use pip install realtimetts[all] en su lugar.

    La biblioteca RealtimeTTS proporciona opciones de instalaci\u00f3n para varias dependencias seg\u00fan su caso de uso. Aqu\u00ed est\u00e1n las diferentes formas en que puede instalar RealtimeTTS seg\u00fan sus necesidades:

    "},{"location":"es/installation/#instalacion-completa","title":"Instalaci\u00f3n Completa","text":"

    Para instalar RealtimeTTS con soporte para todos los motores de TTS:

    pip install -U realtimetts[all]\n
    "},{"location":"es/installation/#instalacion-personalizada","title":"Instalaci\u00f3n Personalizada","text":"

    RealtimeTTS permite una instalaci\u00f3n personalizada con instalaciones m\u00ednimas de bibliotecas. Estas son las opciones disponibles: - all: Instalaci\u00f3n completa con todos los motores soportados. - system: Incluye capacidades de TTS espec\u00edficas del sistema (por ejemplo, pyttsx3). - azure: Agrega soporte para Azure Cognitive Services Speech. - elevenlabs: Incluye integraci\u00f3n con la API de ElevenLabs. - openai: Para servicios de voz de OpenAI. - gtts: Soporte para Google Text-to-Speech. - coqui: Instala el motor Coqui TTS. - minimal: Instala solo los requisitos base sin motor (solo necesario si desea desarrollar un motor propio)

    Por ejemplo, si desea instalar RealtimeTTS solo para uso local de Coqui TTS neuronal, debe usar:

    pip install realtimetts[coqui]\n

    Si desea instalar RealtimeTTS solo con Azure Cognitive Services Speech, ElevenLabs y soporte de OpenAI:

    pip install realtimetts[azure,elevenlabs,openai]\n
    "},{"location":"es/installation/#instalacion-en-entorno-virtual","title":"Instalaci\u00f3n en Entorno Virtual","text":"

    Para aquellos que deseen realizar una instalaci\u00f3n completa dentro de un entorno virtual, sigan estos pasos:

    python -m venv env_realtimetts\nenv_realtimetts\\Scripts\\activate.bat\npython.exe -m pip install --upgrade pip\npip install -U realtimetts[all]\n

    M\u00e1s informaci\u00f3n sobre instalaci\u00f3n de CUDA.

    "},{"location":"es/installation/#requisitos-de-los-motores","title":"Requisitos de los Motores","text":"

    Los diferentes motores soportados por RealtimeTTS tienen requisitos \u00fanicos. Aseg\u00farese de cumplir con estos requisitos seg\u00fan el motor que elija.

    "},{"location":"es/installation/#systemengine","title":"SystemEngine","text":"

    El SystemEngine funciona de inmediato con las capacidades de TTS incorporadas en su sistema. No se necesita configuraci\u00f3n adicional.

    "},{"location":"es/installation/#gttsengine","title":"GTTSEngine","text":"

    El GTTSEngine funciona de inmediato usando la API de texto a voz de Google Translate. No se necesita configuraci\u00f3n adicional.

    "},{"location":"es/installation/#openaiengine","title":"OpenAIEngine","text":"

    Para usar el OpenAIEngine: - configure la variable de entorno OPENAI_API_KEY - instale ffmpeg (ver instalaci\u00f3n de CUDA punto 3)

    "},{"location":"es/installation/#azureengine","title":"AzureEngine","text":"

    Para usar el AzureEngine, necesitar\u00e1: - Clave API de Microsoft Azure Text-to-Speech (proporcionada a trav\u00e9s del par\u00e1metro \"speech_key\" del constructor AzureEngine o en la variable de entorno AZURE_SPEECH_KEY) - Regi\u00f3n de servicio de Microsoft Azure.

    Aseg\u00farese de tener estas credenciales disponibles y correctamente configuradas al inicializar el AzureEngine.

    "},{"location":"es/installation/#elevenlabsengine","title":"ElevenlabsEngine","text":"

    Para el ElevenlabsEngine, necesita: - Clave API de Elevenlabs (proporcionada a trav\u00e9s del par\u00e1metro \"api_key\" del constructor ElevenlabsEngine o en la variable de entorno ELEVENLABS_API_KEY) - mpv instalado en su sistema (esencial para transmitir audio mpeg, Elevenlabs solo entrega mpeg).

    \ud83d\udd39 Instalaci\u00f3n de mpv: - macOS: brew install mpv

    "},{"location":"es/installation/#coquiengine","title":"CoquiEngine","text":"

    Proporciona TTS neuronal local de alta calidad con clonaci\u00f3n de voz.

    Descarga primero un modelo neuronal TTS. En la mayor\u00eda de los casos, ser\u00e1 lo suficientemente r\u00e1pido para tiempo real usando s\u00edntesis GPU. Necesita alrededor de 4-5 GB de VRAM.

    En la mayor\u00eda de los sistemas, se necesitar\u00e1 soporte de GPU para ejecutarse lo suficientemente r\u00e1pido en tiempo real, de lo contrario experimentar\u00e1 tartamudeo.

    "},{"location":"es/installation/#instalacion-de-cuda","title":"Instalaci\u00f3n de CUDA","text":"

    Estos pasos son recomendados para aquellos que requieren mejor rendimiento y tienen una GPU NVIDIA compatible.

    Nota: para verificar si su GPU NVIDIA es compatible con CUDA, visite la lista oficial de GPUs CUDA.

    Para usar torch con soporte v\u00eda CUDA, siga estos pasos:

    Nota: las instalaciones m\u00e1s nuevas de pytorch pueden (no verificado) no necesitar la instalaci\u00f3n de Toolkit (y posiblemente cuDNN).

    1. Instalar NVIDIA CUDA Toolkit: Por ejemplo, para instalar Toolkit 12.X, por favor

      • Visite NVIDIA CUDA Downloads.
      • Seleccione su sistema operativo, arquitectura del sistema y versi\u00f3n del sistema operativo.
      • Descargue e instale el software.

      o para instalar Toolkit 11.8, por favor - Visite NVIDIA CUDA Toolkit Archive. - Seleccione su sistema operativo, arquitectura del sistema y versi\u00f3n del sistema operativo. - Descargue e instale el software.

    2. Instalar NVIDIA cuDNN:

      Por ejemplo, para instalar cuDNN 8.7.0 para CUDA 11.x por favor - Visite NVIDIA cuDNN Archive. - Haga clic en \"Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x\". - Descargue e instale el software.

    3. Instalar ffmpeg:

      Puede descargar un instalador para su sistema operativo desde el sitio web de ffmpeg.

      O usar un gestor de paquetes:

      • En Ubuntu o Debian: sudo apt update && sudo apt install ffmpeg

      • En Arch Linux: sudo pacman -S ffmpeg

      • En MacOS usando Homebrew (https://brew.sh/): brew install ffmpeg

      • En Windows usando Chocolatey (https://chocolatey.org/): choco install ffmpeg

      • En Windows usando Scoop (https://scoop.sh/): scoop install ffmpeg

    4. Instalar PyTorch con soporte CUDA:

      Para actualizar su instalaci\u00f3n de PyTorch y habilitar el soporte de GPU con CUDA, siga estas instrucciones seg\u00fan su versi\u00f3n espec\u00edfica de CUDA. Esto es \u00fatil si desea mejorar el rendimiento de RealtimeSTT con capacidades CUDA.

      • Para CUDA 11.8:

        Para actualizar PyTorch y Torchaudio para soportar CUDA 11.8, use los siguientes comandos:

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

      • Para CUDA 12.X:

        Para actualizar PyTorch y Torchaudio para soportar CUDA 12.X, ejecute lo siguiente:

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

      Reemplace 2.3.1 con la versi\u00f3n de PyTorch que coincida con su sistema y requisitos.

    5. Soluci\u00f3n para resolver problemas de compatibilidad: Si encuentra problemas de compatibilidad de bibliotecas, intente establecer estas bibliotecas en versiones fijas:

      pip install networkx==2.8.8 pip install typing_extensions==4.8.0 pip install fsspec==2023.6.0 pip install imageio==2.31.6 pip install networkx==2.8.8 pip install numpy==1.24.3 pip install requests==2.31.0

    "},{"location":"es/usage/","title":"Uso","text":""},{"location":"es/usage/#inicio-rapido","title":"Inicio R\u00e1pido","text":"

    Aqu\u00ed hay un ejemplo b\u00e1sico de uso:

    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine\n\nengine = SystemEngine() # replace with your TTS engine\nstream = TextToAudioStream(engine)\nstream.feed(\"Hello world! How are you today?\")\nstream.play_async()\n
    "},{"location":"es/usage/#alimentar-texto","title":"Alimentar Texto","text":"

    Puede alimentar cadenas individuales:

    stream.feed(\"Hello, this is a sentence.\")\n

    O puede alimentar generadores e iteradores de caracteres para la transmisi\u00f3n en tiempo real:

    def write(prompt: str):\n    for chunk in openai.ChatCompletion.create(\n        model=\"gpt-3.5-turbo\",\n        messages=[{\"role\": \"user\", \"content\" : prompt}],\n        stream=True\n    ):\n        if (text_chunk := chunk[\"choices\"][0][\"delta\"].get(\"content\")) is not None:\n            yield text_chunk\n\ntext_stream = write(\"A three-sentence relaxing speech.\")\n\nstream.feed(text_stream)\n
    char_iterator = iter(\"Streaming this character by character.\")\nstream.feed(char_iterator)\n
    "},{"location":"es/usage/#reproduccion","title":"Reproducci\u00f3n","text":"

    De forma as\u00edncrona:

    stream.play_async()\nwhile stream.is_playing():\n    time.sleep(0.1)\n

    De forma s\u00edncrona:

    stream.play()\n
    "},{"location":"es/usage/#prueba-de-la-biblioteca","title":"Prueba de la Biblioteca","text":"

    El subdirectorio de pruebas contiene un conjunto de scripts para ayudarte a evaluar y comprender las capacidades de la biblioteca RealtimeTTS.

    Ten en cuenta que la mayor\u00eda de las pruebas a\u00fan dependen de la API \"antigua\" de OpenAI (<1.0.0). El uso de la nueva API de OpenAI se demuestra en openai_1.0_test.py.

    "},{"location":"es/usage/#pausar-reanudar-y-detener","title":"Pausar, Reanudar y Detener","text":"

    Pausar el flujo de audio:

    stream.pause()\n

    Reanudar un flujo pausado:

    stream.resume()\n

    Detener el flujo inmediatamente:

    stream.stop()\n
    "},{"location":"es/usage/#requisitos-explicados","title":"Requisitos Explicados","text":"

    Agradecimiento especial al Instituto de Investigaci\u00f3n Idiap por mantener un fork de coqui tts.

    "},{"location":"fr/","title":"RealtimeTTS","text":"

    EN | FR | ES

    Biblioth\u00e8que de synth\u00e8se vocale \u00e0 faible latence et facile \u00e0 utiliser pour les applications en temps r\u00e9el

    "},{"location":"fr/#a-propos-du-projet","title":"\u00c0 propos du projet","text":"

    RealtimeTTS est une biblioth\u00e8que de synth\u00e8se vocale (TTS) de pointe con\u00e7ue pour les applications en temps r\u00e9el. Elle se distingue par sa capacit\u00e9 \u00e0 convertir des flux de texte en sortie auditive de haute qualit\u00e9 avec une latence minimale.

    "},{"location":"fr/#caracteristiques-cles","title":"Caract\u00e9ristiques cl\u00e9s","text":"

    Pour les instructions d'installation, les exemples d'utilisation et la r\u00e9f\u00e9rence de l'API, veuillez naviguer \u00e0 travers la documentation \u00e0 l'aide du sidebar.

    "},{"location":"fr/api/","title":"Fran\u00e7ais","text":""},{"location":"fr/api/#configuration","title":"Configuration","text":""},{"location":"fr/api/#parametres-dinitialisation-pour-texttoaudiostream","title":"Param\u00e8tres d'initialisation pour `TextToAudioStream","text":"

    Lorsque vous initialisez la classe TextToAudioStream, vous disposez de diverses options pour personnaliser son comportement. Voici les param\u00e8tres disponibles :

    "},{"location":"fr/api/#baseengine","title":"`(BaseEngine)","text":""},{"location":"fr/api/#_text_stream_start-appelable","title":"_text_stream_start (appelable)","text":""},{"location":"fr/api/#_text_stream_stop-appelable","title":"_text_stream_stop (appelable)","text":""},{"location":"fr/api/#_audio_stream_start-appelable","title":"_audio_stream_start` (appelable)","text":""},{"location":"fr/api/#_audio_stream_stop-appelable","title":"_audio_stream_stop (appelable)","text":""},{"location":"fr/api/#on_character-appelable","title":"on_character` (appelable)","text":""},{"location":"fr/api/#_device_index-int","title":"_device_index (int)","text":""},{"location":"fr/api/#tokenizerchaine","title":"(tokenizer(cha\u00eene)","text":""},{"location":"fr/api/#languagechaine","title":"`language(cha\u00eene)","text":""},{"location":"fr/api/#mutedbool","title":"muted(bool)","text":""},{"location":"fr/api/#level-int","title":"level (int)","text":""},{"location":"fr/api/#exemple-dutilisation","title":"Exemple d'utilisation :","text":"

    ``(`python moteur = YourEngine () # Remplacez-vous par votre moteur flux = TextToAudioStream( moteur=engine, on_text_stream_start=my_text_start_func, on_text_stream_stop=my_text_stop_func, on_audio_stream_start=my_audio_start_func, on_audio_stream_stop=my_audio_stop_func, niveau=logging.INFO )

    "},{"location":"fr/api/#methodes","title":"M\u00e9thodes","text":""},{"location":"fr/api/#play-etplay_async","title":"play etplay_async`","text":"

    Ces m\u00e9thodes sont responsables de l'ex\u00e9cution de la synth\u00e8se texte-audio et de la lecture du flux audio. La diff\u00e9rence est que play est une fonction de blocage, tandis que play_async s'ex\u00e9cute dans un thread s\u00e9par\u00e9, permettant \u00e0 d'autres op\u00e9rations de se poursuivre.

    "},{"location":"fr/api/#parametres","title":"Param\u00e8tres :","text":""},{"location":"fr/api/#fast_sentence_fragment-bool","title":"fast_sentence_fragment (bool)","text":""},{"location":"fr/api/#fast_sentence_fragment_allsentencesbool","title":"fast_sentence_fragment_allsentences(bool)","text":""},{"location":"fr/api/#fast_sentence_fragment_allsentences_multiple-bool","title":"fast_sentence_fragment_allsentences_multiple (bool)","text":""},{"location":"fr/api/#_threshold_seconds-flotteur","title":"_threshold_seconds (flotteur)","text":"

    Une valeur plus \u00e9lev\u00e9e garantit qu'il y a plus d'audio pr\u00e9-tamponn\u00e9, r\u00e9duisant ainsi le risque de silence ou de lacunes pendant la lecture. Si vous rencontrez des pauses ou des pauses, envisagez d'augmenter cette valeur.

    "},{"location":"fr/api/#_sentence_length-int","title":"_sentence_length (int)","text":""},{"location":"fr/api/#_first_fragment_lengthint","title":"_first_fragment_length(int)","text":""},{"location":"fr/api/#_synthesized_text-bool","title":"_synthesized_text (bool)","text":""},{"location":"fr/api/#reset_generated_text-bool","title":"#reset_generated_text` (bool)","text":""},{"location":"fr/api/#_wavfile-str","title":"_wavfile (str)","text":""},{"location":"fr/api/#_sentence_synthesized-appelable","title":"`_sentence_synthesized (appelable)","text":""},{"location":"fr/api/#before_sentence_synthesized-appelable","title":"before`_sentence_synthesized (appelable)","text":""},{"location":"fr/api/#_audio_chunk-appelable","title":"_audio_chunk (appelable)","text":""},{"location":"fr/api/#str","title":"```(str)","text":""},{"location":"fr/api/#_sentences-appelable","title":"_sentences (appelable)","text":""},{"location":"fr/api/#angustr","title":"angu(str)","text":""},{"location":"fr/api/#_sizeint","title":"_size(int)","text":""},{"location":"fr/api/#_size_look_overhead-int","title":"_size_look_overhead (int)","text":""},{"location":"fr/api/#mute-bool","title":"mute (bool)","text":""},{"location":"fr/api/#ence_fragment_delimiters-str","title":"ence_fragment_delimiters (str)","text":""},{"location":"fr/api/#_first_fragment_after_words-int","title":"_first_fragment_after_words (int)","text":""},{"location":"fr/contributing/","title":"Contribuer \u00e0 RealtimeTTS","text":"

    Nous accueillons les contributions \u00e0 RealtimeTTS ! Voici quelques fa\u00e7ons dont vous pouvez contribuer :

    1. Reporting Bugs : Si vous trouvez un bug, veuillez ouvrir un probl\u00e8me sur notre r\u00e9f\u00e9rentiel GitHub.

    2. ** Suggestion d'am\u00e9liorations** : Vous avez des id\u00e9es de nouvelles fonctionnalit\u00e9s ou d'am\u00e9liorations ? Nous serions ravis de les entendre ! Ouvrez un num\u00e9ro pour sugg\u00e9rer des am\u00e9liorations.

    3. Code Contributions : Vous voulez ajouter une nouvelle fonctionnalit\u00e9 ou corriger un bug ? Super ! Veuillez suivre ces \u00e9tapes :

    4. Fourcher le d\u00e9p\u00f4t
    5. Cr\u00e9ez une nouvelle branche pour votre fonctionnalit\u00e9
    6. Faites vos changements
    7. Soumettez une demande pull avec une description claire de vos modifications

    8. Documentation : Aidez-nous \u00e0 am\u00e9liorer notre documentation en corrigeant les fautes de frappe, en ajoutant des exemples ou en clarifiant les sections d\u00e9routantes.

    9. Ajout de nouveaux moteurs : Si vous souhaitez ajouter la prise en charge d'un nouveau moteur TTS, veuillez d'abord ouvrir un num\u00e9ro pour discuter de l'impl\u00e9mentation.

    Merci d'avoir contribu\u00e9 \u00e0 rendre RealtimeTTS meilleur !

    "},{"location":"fr/faq/","title":"Foire aux questions","text":"

    Pour les r\u00e9ponses aux questions fr\u00e9quemment pos\u00e9es sur RealtimeTTS, veuillez vous r\u00e9f\u00e9rer \u00e0 notre page FAQ sur GitHub.

    Cette page couvre divers sujets dont

    Pour des informations plus d\u00e9taill\u00e9es, veuillez consulter le lien ci-dessus.

    "},{"location":"fr/installation/","title":"Fran\u00e7ais","text":"

    Remarque: Installation de base avec pip install realtimettss n'est plus recommand\u00e9, utilisez pip install realtimetts[all] \u00e0 la place.

    La biblioth\u00e8que RealtimeTTS offre des options d'installation pour diverses d\u00e9pendances pour votre cas d'utilisation. Voici les diff\u00e9rentes fa\u00e7ons dont vous pouvez installer RealtimeTTS en fonction de vos besoins :

    "},{"location":"fr/installation/#installation-complete","title":"Installation compl\u00e8te","text":"

    Pour installer RealtimeTTS avec prise en charge de tous les moteurs TTS :

    pip install -U realtimetts [tous]

    "},{"location":"fr/installation/#installation-personnalisee","title":"Installation personnalis\u00e9e","text":"

    RealtimeTTS permet une installation personnalis\u00e9e avec un minimum d'installations de biblioth\u00e8que. Voici les options disponibles : - all : Installation compl\u00e8te avec chaque moteur pris en charge. - ** syst\u00e8me : Inclut les capacit\u00e9s TTS sp\u00e9cifiques au syst\u00e8me (par exemple, pyttsx3). - azure : ajoute le support vocal Azure Cognitive Services. - elevenlabs : Comprend l'int\u00e9gration avec l'API ElevenLabs. - openai : Pour les services vocaux OpenAI. - gtts : Prise en charge de Google Text-to-Speech. - coqui : Installe le moteur Coqui TTS. - minimal** : installe uniquement les exigences de base sans moteur (n\u00e9cessaire uniquement si vous souhaitez d\u00e9velopper votre propre moteur)

    Supposons que vous souhaitiez installer RealtimeTTS uniquement pour l'utilisation neuronale locale de Coqui TTS, vous devez alors utiliser :

    pip installez realtimetts [coqui]

    Par exemple, si vous souhaitez installer RealtimeTTS avec uniquement Azure Cognitive Services Speech, ElevenLabs et la prise en charge d'OpenAI :

    pip installez realtimetts[azure,elevenlabs,openai]

    "},{"location":"fr/installation/#installation-de-lenvironnement-virtuel","title":"Installation de l'environnement virtuel","text":"

    Pour ceux qui souhaitent effectuer une installation compl\u00e8te dans un environnement virtuel, proc\u00e9dez comme suit

    python - m venv env_realtimetts env_realtimetts\\Scripts\\activate.bat python.exe - m pip install - upgrade pip pip install -U realtimetts [tous]

    Plus d'informations sur installation CUDA.

    "},{"location":"fr/installation/#exigences-du-moteur","title":"Exigences du moteur","text":"

    Diff\u00e9rents moteurs pris en charge par RealtimeTTS ont des exigences uniques. Assurez-vous de remplir ces exigences en fonction du moteur que vous choisissez.

    "},{"location":"fr/installation/#moteur-systeme","title":"Moteur syst\u00e8me","text":"

    Le `SystemEngine fonctionne d\u00e8s le d\u00e9part avec les capacit\u00e9s TTS int\u00e9gr\u00e9es de votre syst\u00e8me. Aucune configuration suppl\u00e9mentaire n'est n\u00e9cessaire.

    "},{"location":"fr/installation/#gttsengine","title":"GTTSEngine","text":"

    Le GTTSEngine fonctionne d\u00e8s le d\u00e9part \u00e0 l'aide de l'API de synth\u00e8se vocale de Google Translate. Aucune configuration suppl\u00e9mentaire n'est n\u00e9cessaire.

    "},{"location":"fr/installation/#openaiengine","title":"OpenAIEngine","text":"

    Pour utiliser le ``(OpenAIE): - d\u00e9finir la variable d'environnement OPENAI_API_KEY - installer ffmpeg (voir installation CUDA point 3)

    "},{"location":"fr/installation/#azureengine","title":"AzureEngine","text":"

    Pour utiliser le ine, vous aurez besoin de : - Cl\u00e9 API Microsoft Azure Text-to-Speech (fournie via le param\u00e8tre constructeur AzureEngine \u00ab speech_key \u00bb ou dans la variable d'environnement AZURE_SPEECH_KEY) - R\u00e9gion de service Microsoft Azure.

    Assurez-vous d'avoir ces informations d'identification disponibles et correctement configur\u00e9es lors de l'initialisation du AzureEngine.

    "},{"location":"fr/installation/#elevenlabsengine","title":"ElevenlabsEngine","text":"

    Pour le ElevenlabsEngine, vous avez besoin de: - Cl\u00e9 API Elevenlabs (fournie via le param\u00e8tre constructeur ElevenlabsEngine \u00ab api_key \u00bb ou dans la variable d'environnement ELEVENLABS_API_KEY) - mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne d\u00e9livre que mpeg).

    "},{"location":"fr/installation/#elevenlabsengine_1","title":"ElevenlabsEngine","text":"

    Pour le ElevenlabsEngine, vous avez besoin de: - Cl\u00e9 API Elevenlabs (fournie via le param\u00e8tre constructeur ElevenlabsEngine \u00ab api_key \u00bb ou dans la variable d'environnement ELEVENLABS_API_KEY) - mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne d\u00e9livre que mpeg).

    \ud83d\udd39 Installation v: - macOS: infuser installer mpv

    "},{"location":"fr/installation/#coquiengine","title":"CoquiEngine","text":"

    Offre un TTS neuronal local de haute qualit\u00e9 avec clonage vocal.

    T\u00e9l\u00e9charge d'abord un mod\u00e8le TTS neuronal. Dans la plupart des cas, il est suffisamment rapide pour le temps r\u00e9el utilisant la synth\u00e8se GPU. N\u00e9cessite environ 4 \u00e0 5 Go de VRAM.

    Sur la plupart des syst\u00e8mes, la prise en charge du GPU sera n\u00e9cessaire pour fonctionner suffisamment rapidement en temps r\u00e9el, sinon vous ferez l'exp\u00e9rience du b\u00e9gaiement.

    "},{"location":"fr/installation/#installation-cuda","title":"Installation CUDA","text":"

    Ces \u00e9tapes sont recommand\u00e9es pour ceux qui ont besoin de ** meilleures performances ** et disposent d'un GPU NVIDIA compatible.

    Remarque : pour v\u00e9rifier si votre GPU NVIDIA prend en charge CUDA, visitez la liste officielle des GPU CUDA.

    Pour utiliser une torche avec support via CUDA, veuillez suivre ces \u00e9tapes :

    Remarque : les installations de pythorque plus r\u00e9centes peuvent (non v\u00e9rifi\u00e9) n'ont plus besoin d'installation de Toolkit (et \u00e9ventuellement de cuDNN).

    1. Installer NVIDIA CUDA Toolkit: Par exemple, pour installer Toolkit 12.X, s'il te pla\u00eet

      • Visitez NVIDIA CUDA T\u00e9l\u00e9chargements.
      • S\u00e9lectionnez votre syst\u00e8me d'exploitation, votre architecture syst\u00e8me et votre version os.
      • T\u00e9l\u00e9chargez et installez le logiciel.

      ou pour installer Toolkit 11.8, s'il vous pla\u00eet - Visitez Archive de la bo\u00eete \u00e0 outils CUDA NVIDIA. - S\u00e9lectionnez votre syst\u00e8me d'exploitation, votre architecture syst\u00e8me et votre version os. - T\u00e9l\u00e9chargez et installez le logiciel.

    2. Installer NVIDIA cuDNN:

      Par exemple, pour installer cuDNN 8.7.0 pour CUDA 11. x s'il vous pla\u00eet - Visitez NVIDIA cuDNN Archive. - Cliquez sur \u00ab T\u00e9l\u00e9charger cuDNN v8.7.0 (28 novembre 2022), pour CUDA 11.x \u00bb. - T\u00e9l\u00e9chargez et installez le logiciel.

    3. Installer ffmpeg:

      Vous pouvez t\u00e9l\u00e9charger un programme d'installation pour votre syst\u00e8me d'exploitation \u00e0 partir du site Web deffmpeg.

      Ou utilisez un gestionnaire de packages :

      • Sur Ubuntu ou Debian: sudo apt update & & sudo apt install ffmpeg

      • Sur Arch Linux: sudo pacman -S ffmpeg

      • Sur MacOS utilisant Homebrew (https://brew.sh/): infuser installer ffmpeg

      • Sur Windows utilisant Chocolatey (https://chocolatey.org/): choco installer ffmpeg

      • Sur Windows utilisant Scoop (https://scoop.sh/): scoop installer ffmpeg

    4. Installez PyTorch avec le support CUDA :

      Pour mettre \u00e0 niveau votre installation PyTorch afin d'activer le support GPU avec CUDA, suivez ces instructions en fonction de votre version CUDA sp\u00e9cifique. Ceci est utile si vous souhaitez am\u00e9liorer les performances de RealtimeSTT avec les capacit\u00e9s CUDA.

      • Pour CUDA 11.8:

        Pour mettre \u00e0 jour PyTorch et Torchaudio afin de prendre en charge CUDA 11.8, utilisez les commandes suivantes :

        pip installe torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

      • Pour CUDA 12.X:

        Pour mettre \u00e0 jour PyTorch et Torchaudio pour prendre en charge CUDA 12.X, ex\u00e9cutez ce qui suit :

        pip installe torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

      Remplacer ` of PyTorch that matching your system and requirements.

    5. ** Correction pour r\u00e9soudre les probl\u00e8mes de compatibilit\u00e9** : Si vous rencontrez des probl\u00e8mes de compatibilit\u00e9 de biblioth\u00e8que, essayez de d\u00e9finir ces biblioth\u00e8ques sur des versions fixes :

    ```

    pip install networkx==2.8.8\n\npip install typing_extensions==4.8.0\n\npip install fsspec==2023.6.0\n\npip install imageio==2.31.6\n\npip install networkx==2.8.8\n\npip install numpy==1.24.3\n\npip install requests==2.31.0\n

    ```

    "},{"location":"fr/usage/","title":"Utilisation","text":""},{"location":"fr/usage/#demarrage-rapide","title":"D\u00e9marrage rapide","text":"

    Voici un exemple d'utilisation de base :

    ```(python depuis RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine

    moteur = SystemEngine () # remplacer par votre moteur TTS flux = TextToAudioStream(moteur) stream.feed(\"Bonjour le monde! Comment \u00e7a va aujourd'hui ?\") stream.play_async() ``

    "},{"location":"fr/usage/#flux-texte","title":"Flux Texte","text":"

    Vous pouvez alimenter des cha\u00eenes individuelles :

    ``(`python stream.feed(\u00ab Bonjour, c'est une phrase. \u00bb)

    Ou vous pouvez alimenter des g\u00e9n\u00e9rateurs et des it\u00e9rateurs de caract\u00e8res pour le streaming en temps r\u00e9el :

    ```(python def write (prompt : str) : pour chunk en openai.ChatCompletion.create( mod\u00e8le=\"gpt-3.5-turbo\", messages=[{\"role\": \"utilisateur\", \"contenu\" : prompt}], stream=True ): si (text_chunk := chunk[\u00ab choix \u00bb][0][\u00ab delta \u00bb].get(\u00ab contenu \u00bb)) n'est pas Aucun : produire du texte_chunk

    text_stream = write (\u00ab Un discours relaxant en trois phrases \u00bb)

    stream.feed(text_stream) ``

    ``(`python char_iterator = iter (\u00ab Diffusion de ce personnage par personnage \u00bb) stream.feed (char_iterator)

    "},{"location":"fr/usage/#layback","title":"Layback","text":"

    Asynchrone:

    ``(`python stream.play_async() pendant que stream.is_playing(): temps.sommeil(0,1)

    Synchronis\u00e9:

    ``(`python stream.play()

    "},{"location":"fr/usage/#tester-la-bibliotheque","title":"Tester la biblioth\u00e8que","text":"

    Le sous-r\u00e9pertoire de test contient un ensemble de scripts pour vous aider \u00e0 \u00e9valuer et comprendre les capacit\u00e9s de la biblioth\u00e8que RealtimeTTS.

    Notez que la plupart des tests reposent toujours sur l'\u00ab ancienne \u00bb API OpenAI (<1.0.0). L'utilisation de la nouvelle API OpenAI est d\u00e9montr\u00e9e dans openai_1.0_test.py.

    "},{"location":"fr/usage/#mettre-en-pause-reprendre-et-arreter","title":"Mettre en pause, reprendre et arr\u00eater","text":"

    Mettre en pause le flux audio :

    ``(`python stream.pause()

    Reprendre un flux en pause :

    ``(`python stream.reprendre()

    Arr\u00eatez imm\u00e9diatement le flux :

    ``(`python stream.stop()

    "},{"location":"fr/usage/#exigences-expliquees","title":"Exigences expliqu\u00e9es","text":"

    Criez \u00e0 Idiap Research Institute pour entretenir une fourche de coqui tts.

    "},{"location":"fr/en/","title":"RealtimeTTS","text":"

    EN | FR | ES

    Easy to use, low-latency text-to-speech library for realtime applications

    "},{"location":"fr/en/#about-the-project","title":"About the Project","text":"

    RealtimeTTS is a state-of-the-art text-to-speech (TTS) library designed for real-time applications. It stands out in its ability to convert text streams fast into high-quality auditory output with minimal latency.

    "},{"location":"fr/en/#key-features","title":"Key Features","text":"

    For installation instructions, usage examples, and API reference, please navigate through the documentation using the sidebar.

    "},{"location":"fr/en/api/","title":"English","text":""},{"location":"fr/en/api/#configuration","title":"Configuration","text":""},{"location":"fr/en/api/#initialization-parameters-for-texttoaudiostream","title":"Initialization Parameters for TextToAudioStream","text":"

    When you initialize the TextToAudioStream class, you have various options to customize its behavior. Here are the available parameters:

    "},{"location":"fr/en/api/#engine-baseengine","title":"engine (BaseEngine)","text":""},{"location":"fr/en/api/#on_text_stream_start-callable","title":"on_text_stream_start (callable)","text":""},{"location":"fr/en/api/#on_text_stream_stop-callable","title":"on_text_stream_stop (callable)","text":""},{"location":"fr/en/api/#on_audio_stream_start-callable","title":"on_audio_stream_start (callable)","text":""},{"location":"fr/en/api/#on_audio_stream_stop-callable","title":"on_audio_stream_stop (callable)","text":""},{"location":"fr/en/api/#on_character-callable","title":"on_character (callable)","text":""},{"location":"fr/en/api/#output_device_index-int","title":"output_device_index (int)","text":""},{"location":"fr/en/api/#tokenizer-string","title":"tokenizer (string)","text":""},{"location":"fr/en/api/#language-string","title":"language (string)","text":""},{"location":"fr/en/api/#muted-bool","title":"muted (bool)","text":""},{"location":"fr/en/api/#level-int","title":"level (int)","text":""},{"location":"fr/en/api/#example-usage","title":"Example Usage:","text":"
    engine = YourEngine()  # Substitute with your engine\nstream = TextToAudioStream(\n    engine=engine,\n    on_text_stream_start=my_text_start_func,\n    on_text_stream_stop=my_text_stop_func,\n    on_audio_stream_start=my_audio_start_func,\n    on_audio_stream_stop=my_audio_stop_func,\n    level=logging.INFO\n)\n
    "},{"location":"fr/en/api/#methods","title":"Methods","text":""},{"location":"fr/en/api/#play-and-play_async","title":"play and play_async","text":"

    These methods are responsible for executing the text-to-audio synthesis and playing the audio stream. The difference is that play is a blocking function, while play_async runs in a separate thread, allowing other operations to proceed.

    "},{"location":"fr/en/api/#parameters","title":"Parameters:","text":""},{"location":"fr/en/api/#fast_sentence_fragment-bool","title":"fast_sentence_fragment (bool)","text":""},{"location":"fr/en/api/#fast_sentence_fragment_allsentences-bool","title":"fast_sentence_fragment_allsentences (bool)","text":""},{"location":"fr/en/api/#fast_sentence_fragment_allsentences_multiple-bool","title":"fast_sentence_fragment_allsentences_multiple (bool)","text":""},{"location":"fr/en/api/#buffer_threshold_seconds-float","title":"buffer_threshold_seconds (float)","text":"

    A higher value ensures that there's more pre-buffered audio, reducing the likelihood of silence or gaps during playback. If you experience breaks or pauses, consider increasing this value.

    "},{"location":"fr/en/api/#minimum_sentence_length-int","title":"minimum_sentence_length (int)","text":""},{"location":"fr/en/api/#minimum_first_fragment_length-int","title":"minimum_first_fragment_length (int)","text":""},{"location":"fr/en/api/#log_synthesized_text-bool","title":"log_synthesized_text (bool)","text":""},{"location":"fr/en/api/#reset_generated_text-bool","title":"reset_generated_text (bool)","text":""},{"location":"fr/en/api/#output_wavfile-str","title":"output_wavfile (str)","text":""},{"location":"fr/en/api/#on_sentence_synthesized-callable","title":"on_sentence_synthesized (callable)","text":""},{"location":"fr/en/api/#before_sentence_synthesized-callable","title":"before_sentence_synthesized (callable)","text":""},{"location":"fr/en/api/#on_audio_chunk-callable","title":"on_audio_chunk (callable)","text":""},{"location":"fr/en/api/#tokenizer-str","title":"tokenizer (str)","text":""},{"location":"fr/en/api/#tokenize_sentences-callable","title":"tokenize_sentences (callable)","text":""},{"location":"fr/en/api/#language-str","title":"language (str)","text":""},{"location":"fr/en/api/#context_size-int","title":"context_size (int)","text":""},{"location":"fr/en/api/#context_size_look_overhead-int","title":"context_size_look_overhead (int)","text":""},{"location":"fr/en/api/#muted-bool_1","title":"muted (bool)","text":""},{"location":"fr/en/api/#sentence_fragment_delimiters-str","title":"sentence_fragment_delimiters (str)","text":""},{"location":"fr/en/api/#force_first_fragment_after_words-int","title":"force_first_fragment_after_words (int)","text":""},{"location":"fr/en/contributing/","title":"Contributing to RealtimeTTS","text":"

    We welcome contributions to RealtimeTTS! Here are some ways you can contribute:

    1. Reporting Bugs: If you find a bug, please open an issue on our GitHub repository.

    2. Suggesting Enhancements: Have ideas for new features or improvements? We'd love to hear them! Open an issue to suggest enhancements.

    3. Code Contributions: Want to add a new feature or fix a bug? Great! Please follow these steps:

    4. Fork the repository
    5. Create a new branch for your feature
    6. Make your changes
    7. Submit a pull request with a clear description of your changes

    8. Documentation: Help us improve our documentation by fixing typos, adding examples, or clarifying confusing sections.

    9. Adding New Engines: If you want to add support for a new TTS engine, please open an issue first to discuss the implementation.

    Thank you for helping make RealtimeTTS better!

    "},{"location":"fr/en/faq/","title":"Frequently Asked Questions","text":"

    For answers to frequently asked questions about RealtimeTTS, please refer to our FAQ page on GitHub.

    This page covers various topics including:

    For more detailed information, please visit the link above.

    "},{"location":"fr/en/installation/","title":"English","text":"

    Note: Basic Installation with pip install realtimetts is not recommended anymore, use pip install realtimetts[all] instead.

    The RealtimeTTS library provides installation options for various dependencies for your use case. Here are the different ways you can install RealtimeTTS depending on your needs:

    "},{"location":"fr/en/installation/#full-installation","title":"Full Installation","text":"

    To install RealtimeTTS with support for all TTS engines:

    pip install -U realtimetts[all]\n
    "},{"location":"fr/en/installation/#custom-installation","title":"Custom Installation","text":"

    RealtimeTTS allows for custom installation with minimal library installations. Here are the options available: - all: Full installation with every engine supported. - system: Includes system-specific TTS capabilities (e.g., pyttsx3). - azure: Adds Azure Cognitive Services Speech support. - elevenlabs: Includes integration with ElevenLabs API. - openai: For OpenAI voice services. - gtts: Google Text-to-Speech support. - coqui: Installs the Coqui TTS engine. - minimal: Installs only the base requirements with no engine (only needed if you want to develop an own engine)

    Say you want to install RealtimeTTS only for local neuronal Coqui TTS usage, then you should use:

    pip install realtimetts[coqui]\n

    For example, if you want to install RealtimeTTS with only Azure Cognitive Services Speech, ElevenLabs, and OpenAI support:

    pip install realtimetts[azure,elevenlabs,openai]\n
    "},{"location":"fr/en/installation/#virtual-environment-installation","title":"Virtual Environment Installation","text":"

    For those who want to perform a full installation within a virtual environment, follow these steps:

    python -m venv env_realtimetts\nenv_realtimetts\\Scripts\\activate.bat\npython.exe -m pip install --upgrade pip\npip install -U realtimetts[all]\n

    More information about CUDA installation.

    "},{"location":"fr/en/installation/#engine-requirements","title":"Engine Requirements","text":"

    Different engines supported by RealtimeTTS have unique requirements. Ensure you fulfill these requirements based on the engine you choose.

    "},{"location":"fr/en/installation/#systemengine","title":"SystemEngine","text":"

    The SystemEngine works out of the box with your system's built-in TTS capabilities. No additional setup is needed.

    "},{"location":"fr/en/installation/#gttsengine","title":"GTTSEngine","text":"

    The GTTSEngine works out of the box using Google Translate's text-to-speech API. No additional setup is needed.

    "},{"location":"fr/en/installation/#openaiengine","title":"OpenAIEngine","text":"

    To use the OpenAIEngine: - set environment variable OPENAI_API_KEY - install ffmpeg (see CUDA installation point 3)

    "},{"location":"fr/en/installation/#azureengine","title":"AzureEngine","text":"

    To use the AzureEngine, you will need: - Microsoft Azure Text-to-Speech API key (provided via AzureEngine constructor parameter \"speech_key\" or in the environment variable AZURE_SPEECH_KEY) - Microsoft Azure service region.

    Make sure you have these credentials available and correctly configured when initializing the AzureEngine.

    "},{"location":"fr/en/installation/#elevenlabsengine","title":"ElevenlabsEngine","text":"

    For the ElevenlabsEngine, you need: - Elevenlabs API key (provided via ElevenlabsEngine constructor parameter \"api_key\" or in the environment variable ELEVENLABS_API_KEY) - mpv installed on your system (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    \ud83d\udd39 Installing mpv: - macOS: brew install mpv

    "},{"location":"fr/en/installation/#coquiengine","title":"CoquiEngine","text":"

    Delivers high quality, local, neural TTS with voice-cloning.

    Downloads a neural TTS model first. In most cases it be fast enough for Realtime using GPU synthesis. Needs around 4-5 GB VRAM.

    On most systems GPU support will be needed to run fast enough for realtime, otherwise you will experience stuttering.

    "},{"location":"fr/en/installation/#cuda-installation","title":"CUDA installation","text":"

    These steps are recommended for those who require better performance and have a compatible NVIDIA GPU.

    Note: to check if your NVIDIA GPU supports CUDA, visit the official CUDA GPUs list.

    To use a torch with support via CUDA please follow these steps:

    Note: newer pytorch installations may (unverified) not need Toolkit (and possibly cuDNN) installation anymore.

    1. Install NVIDIA CUDA Toolkit: For example, to install Toolkit 12.X, please

      • Visit NVIDIA CUDA Downloads.
      • Select your operating system, system architecture, and os version.
      • Download and install the software.

      or to install Toolkit 11.8, please - Visit NVIDIA CUDA Toolkit Archive. - Select your operating system, system architecture, and os version. - Download and install the software.

    2. Install NVIDIA cuDNN:

      For example, to install cuDNN 8.7.0 for CUDA 11.x please - Visit NVIDIA cuDNN Archive. - Click on \"Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x\". - Download and install the software.

    3. Install ffmpeg:

      You can download an installer for your OS from the ffmpeg Website.

      Or use a package manager:

      • On Ubuntu or Debian: sudo apt update && sudo apt install ffmpeg

      • On Arch Linux: sudo pacman -S ffmpeg

      • On MacOS using Homebrew (https://brew.sh/): brew install ffmpeg

      • On Windows using Chocolatey (https://chocolatey.org/): choco install ffmpeg

      • On Windows using Scoop (https://scoop.sh/): scoop install ffmpeg

    4. Install PyTorch with CUDA support:

      To upgrade your PyTorch installation to enable GPU support with CUDA, follow these instructions based on your specific CUDA version. This is useful if you wish to enhance the performance of RealtimeSTT with CUDA capabilities.

      • For CUDA 11.8:

        To update PyTorch and Torchaudio to support CUDA 11.8, use the following commands:

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

      • For CUDA 12.X:

        To update PyTorch and Torchaudio to support CUDA 12.X, execute the following:

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

      Replace 2.3.1 with the version of PyTorch that matches your system and requirements.

    5. Fix for to resolve compatibility issues: If you run into library compatibility issues, try setting these libraries to fixed versions:

    ```

    pip install networkx==2.8.8\n\npip install typing_extensions==4.8.0\n\npip install fsspec==2023.6.0\n\npip install imageio==2.31.6\n\npip install networkx==2.8.8\n\npip install numpy==1.24.3\n\npip install requests==2.31.0\n

    ```

    "},{"location":"fr/en/usage/","title":"Usage","text":""},{"location":"fr/en/usage/#quick-start","title":"Quick Start","text":"

    Here's a basic usage example:

    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine\n\nengine = SystemEngine() # replace with your TTS engine\nstream = TextToAudioStream(engine)\nstream.feed(\"Hello world! How are you today?\")\nstream.play_async()\n
    "},{"location":"fr/en/usage/#feed-text","title":"Feed Text","text":"

    You can feed individual strings:

    stream.feed(\"Hello, this is a sentence.\")\n

    Or you can feed generators and character iterators for real-time streaming:

    def write(prompt: str):\n    for chunk in openai.ChatCompletion.create(\n        model=\"gpt-3.5-turbo\",\n        messages=[{\"role\": \"user\", \"content\" : prompt}],\n        stream=True\n    ):\n        if (text_chunk := chunk[\"choices\"][0][\"delta\"].get(\"content\")) is not None:\n            yield text_chunk\n\ntext_stream = write(\"A three-sentence relaxing speech.\")\n\nstream.feed(text_stream)\n
    char_iterator = iter(\"Streaming this character by character.\")\nstream.feed(char_iterator)\n
    "},{"location":"fr/en/usage/#playback","title":"Playback","text":"

    Asynchronously:

    stream.play_async()\nwhile stream.is_playing():\n    time.sleep(0.1)\n

    Synchronously:

    stream.play()\n
    "},{"location":"fr/en/usage/#testing-the-library","title":"Testing the Library","text":"

    The test subdirectory contains a set of scripts to help you evaluate and understand the capabilities of the RealtimeTTS library.

    Note that most of the tests still rely on the \"old\" OpenAI API (<1.0.0). Usage of the new OpenAI API is demonstrated in openai_1.0_test.py.

    "},{"location":"fr/en/usage/#pause-resume-stop","title":"Pause, Resume & Stop","text":"

    Pause the audio stream:

    stream.pause()\n

    Resume a paused stream:

    stream.resume()\n

    Stop the stream immediately:

    stream.stop()\n
    "},{"location":"fr/en/usage/#requirements-explained","title":"Requirements Explained","text":"

    Shoutout to Idiap Research Institute for maintaining a fork of coqui tts.

    "},{"location":"fr/es/","title":"RealtimeTTS","text":"

    EN | FR | ES

    *Biblioteca de conversi\u00f3n de texto en voz f\u00e1cil de usar y de baja latencia para aplicaciones en tiempo real.

    "},{"location":"fr/es/#acerca-del-proyecto","title":"Acerca del proyecto","text":"

    RealtimeTTS es una biblioteca de texto a voz (TTS) de \u00faltima generaci\u00f3n dise\u00f1ada para aplicaciones en tiempo real. Destaca por su capacidad para convertir r\u00e1pidamente flujos de texto en salida auditiva de alta calidad con una latencia m\u00ednima.

    "},{"location":"fr/es/#caracteristicas-principales","title":"Caracter\u00edsticas principales","text":"

    Para obtener instrucciones de instalaci\u00f3n, ejemplos de uso y referencias de la API, navegue por la documentaci\u00f3n utilizando la barra lateral.

    "},{"location":"fr/es/api/","title":"TextToAudioStream - Documentaci\u00f3n en Espa\u00f1ol","text":""},{"location":"fr/es/api/#configuracion","title":"Configuraci\u00f3n","text":""},{"location":"fr/es/api/#parametros-de-inicializacion-para-texttoaudiostream","title":"Par\u00e1metros de Inicializaci\u00f3n para TextToAudioStream","text":"

    Cuando inicializa la clase TextToAudioStream, tiene varias opciones para personalizar su comportamiento. Aqu\u00ed est\u00e1n los par\u00e1metros disponibles:

    "},{"location":"fr/es/api/#parametros-principales","title":"Par\u00e1metros Principales","text":""},{"location":"fr/es/api/#engine-baseengine","title":"engine (BaseEngine)","text":""},{"location":"fr/es/api/#on_text_stream_start-callable","title":"on_text_stream_start (callable)","text":""},{"location":"fr/es/api/#on_text_stream_stop-callable","title":"on_text_stream_stop (callable)","text":""},{"location":"fr/es/api/#on_audio_stream_start-callable","title":"on_audio_stream_start (callable)","text":""},{"location":"fr/es/api/#on_audio_stream_stop-callable","title":"on_audio_stream_stop (callable)","text":""},{"location":"fr/es/api/#on_character-callable","title":"on_character (callable)","text":""},{"location":"fr/es/api/#output_device_index-int","title":"output_device_index (int)","text":""},{"location":"fr/es/api/#tokenizer-string","title":"tokenizer (string)","text":""},{"location":"fr/es/api/#language-string","title":"language (string)","text":""},{"location":"fr/es/api/#muted-bool","title":"muted (bool)","text":""},{"location":"fr/es/api/#level-int","title":"level (int)","text":""},{"location":"fr/es/api/#ejemplo-de-uso","title":"Ejemplo de Uso","text":"
    engine = YourEngine()  # Sustituya con su motor\nstream = TextToAudioStream(\n    engine=engine,\n    on_text_stream_start=my_text_start_func,\n    on_text_stream_stop=my_text_stop_func,\n    on_audio_stream_start=my_audio_start_func,\n    on_audio_stream_stop=my_audio_stop_func,\n    level=logging.INFO\n)\n
    "},{"location":"fr/es/api/#metodos","title":"M\u00e9todos","text":""},{"location":"fr/es/api/#play-y-play_async","title":"play y play_async","text":"

    Estos m\u00e9todos son responsables de ejecutar la s\u00edntesis de texto a audio y reproducir el flujo de audio. La diferencia es que play es una funci\u00f3n bloqueante, mientras que play_async se ejecuta en un hilo separado, permitiendo que otras operaciones contin\u00faen.

    "},{"location":"fr/es/api/#parametros-de-reproduccion","title":"Par\u00e1metros de Reproducci\u00f3n","text":""},{"location":"fr/es/api/#fast_sentence_fragment-bool","title":"fast_sentence_fragment (bool)","text":""},{"location":"fr/es/api/#fast_sentence_fragment_allsentences-bool","title":"fast_sentence_fragment_allsentences (bool)","text":""},{"location":"fr/es/api/#fast_sentence_fragment_allsentences_multiple-bool","title":"fast_sentence_fragment_allsentences_multiple (bool)","text":""},{"location":"fr/es/api/#buffer_threshold_seconds-float","title":"buffer_threshold_seconds (float)","text":"

    C\u00f3mo funciona: Antes de sintetizar una nueva oraci\u00f3n, el sistema verifica si queda m\u00e1s material de audio en el b\u00fafer que el tiempo especificado. Un valor m\u00e1s alto asegura que haya m\u00e1s audio pre-almacenado en el b\u00fafer.

    "},{"location":"fr/es/api/#minimum_sentence_length-int","title":"minimum_sentence_length (int)","text":""},{"location":"fr/es/api/#minimum_first_fragment_length-int","title":"minimum_first_fragment_length (int)","text":""},{"location":"fr/es/api/#log_synthesized_text-bool","title":"log_synthesized_text (bool)","text":""},{"location":"fr/es/api/#reset_generated_text-bool","title":"reset_generated_text (bool)","text":""},{"location":"fr/es/api/#output_wavfile-str","title":"output_wavfile (str)","text":""},{"location":"fr/es/api/#funciones-de-callback","title":"Funciones de Callback","text":""},{"location":"fr/es/api/#on_sentence_synthesized-callable","title":"on_sentence_synthesized (callable)","text":""},{"location":"fr/es/api/#before_sentence_synthesized-callable","title":"before_sentence_synthesized (callable)","text":""},{"location":"fr/es/api/#on_audio_chunk-callable","title":"on_audio_chunk (callable)","text":""},{"location":"fr/es/api/#configuracion-de-tokenizacion","title":"Configuraci\u00f3n de Tokenizaci\u00f3n","text":""},{"location":"fr/es/api/#tokenizer-str","title":"tokenizer (str)","text":""},{"location":"fr/es/api/#tokenize_sentences-callable","title":"tokenize_sentences (callable)","text":""},{"location":"fr/es/api/#language-str","title":"language (str)","text":""},{"location":"fr/es/api/#parametros-de-contexto","title":"Par\u00e1metros de Contexto","text":""},{"location":"fr/es/api/#context_size-int","title":"context_size (int)","text":""},{"location":"fr/es/api/#context_size_look_overhead-int","title":"context_size_look_overhead (int)","text":""},{"location":"fr/es/api/#otros-parametros","title":"Otros Par\u00e1metros","text":""},{"location":"fr/es/api/#muted-bool_1","title":"muted (bool)","text":""},{"location":"fr/es/api/#sentence_fragment_delimiters-str","title":"sentence_fragment_delimiters (str)","text":""},{"location":"fr/es/api/#force_first_fragment_after_words-int","title":"force_first_fragment_after_words (int)","text":""},{"location":"fr/es/contributing/","title":"Contribuir a RealtimeTTS","text":"

    Agradecemos cualquier contribuci\u00f3n a RealtimeTTS. Aqu\u00ed tienes algunas formas de contribuir:

    1. Informar de errores: Si encuentras un error, por favor abre una incidencia en nuestro repositorio GitHub.

    2. Sugerir mejoras: \u00bfTienes ideas para nuevas funciones o mejoras? Nos encantar\u00eda escucharlas. Abre una incidencia para sugerir mejoras.

    3. Contribuciones de c\u00f3digo: \u00bfQuieres a\u00f1adir una nueva funci\u00f3n o corregir un error? \u00a1Perfecto! Sigue estos pasos:

    4. Abre el repositorio
    5. Crea una nueva rama para tu funci\u00f3n
    6. Realice los cambios
    7. Env\u00eda un pull request con una descripci\u00f3n clara de tus cambios

    8. Documentaci\u00f3n: Ay\u00fadanos a mejorar nuestra documentaci\u00f3n corrigiendo erratas, a\u00f1adiendo ejemplos o aclarando secciones confusas.

    9. A\u00f1adir nuevos motores: Si quieres a\u00f1adir soporte para un nuevo motor TTS, por favor abre una incidencia primero para discutir la implementaci\u00f3n.

    Gracias por ayudarnos a mejorar RealtimeTTS.

    "},{"location":"fr/es/faq/","title":"Preguntas frecuentes","text":"

    Para obtener respuestas a las preguntas m\u00e1s frecuentes sobre RealtimeTTS, consulta nuestra p\u00e1gina de preguntas frecuentes en GitHub.

    Esta p\u00e1gina cubre varios temas, entre ellos

    Para obtener informaci\u00f3n m\u00e1s detallada, visite el enlace anterior.

    "},{"location":"fr/es/installation/","title":"Espa\u00f1ol","text":"

    Nota: Ya no se recomienda la instalaci\u00f3n b\u00e1sica con pip install realtimetts, use pip install realtimetts[all] en su lugar.

    La biblioteca RealtimeTTS proporciona opciones de instalaci\u00f3n para varias dependencias seg\u00fan su caso de uso. Aqu\u00ed est\u00e1n las diferentes formas en que puede instalar RealtimeTTS seg\u00fan sus necesidades:

    "},{"location":"fr/es/installation/#instalacion-completa","title":"Instalaci\u00f3n Completa","text":"

    Para instalar RealtimeTTS con soporte para todos los motores de TTS:

    pip install -U realtimetts[all]\n
    "},{"location":"fr/es/installation/#instalacion-personalizada","title":"Instalaci\u00f3n Personalizada","text":"

    RealtimeTTS permite una instalaci\u00f3n personalizada con instalaciones m\u00ednimas de bibliotecas. Estas son las opciones disponibles: - all: Instalaci\u00f3n completa con todos los motores soportados. - system: Incluye capacidades de TTS espec\u00edficas del sistema (por ejemplo, pyttsx3). - azure: Agrega soporte para Azure Cognitive Services Speech. - elevenlabs: Incluye integraci\u00f3n con la API de ElevenLabs. - openai: Para servicios de voz de OpenAI. - gtts: Soporte para Google Text-to-Speech. - coqui: Instala el motor Coqui TTS. - minimal: Instala solo los requisitos base sin motor (solo necesario si desea desarrollar un motor propio)

    Por ejemplo, si desea instalar RealtimeTTS solo para uso local de Coqui TTS neuronal, debe usar:

    pip install realtimetts[coqui]\n

    Si desea instalar RealtimeTTS solo con Azure Cognitive Services Speech, ElevenLabs y soporte de OpenAI:

    pip install realtimetts[azure,elevenlabs,openai]\n
    "},{"location":"fr/es/installation/#instalacion-en-entorno-virtual","title":"Instalaci\u00f3n en Entorno Virtual","text":"

    Para aquellos que deseen realizar una instalaci\u00f3n completa dentro de un entorno virtual, sigan estos pasos:

    python -m venv env_realtimetts\nenv_realtimetts\\Scripts\\activate.bat\npython.exe -m pip install --upgrade pip\npip install -U realtimetts[all]\n

    M\u00e1s informaci\u00f3n sobre instalaci\u00f3n de CUDA.

    "},{"location":"fr/es/installation/#requisitos-de-los-motores","title":"Requisitos de los Motores","text":"

    Los diferentes motores soportados por RealtimeTTS tienen requisitos \u00fanicos. Aseg\u00farese de cumplir con estos requisitos seg\u00fan el motor que elija.

    "},{"location":"fr/es/installation/#systemengine","title":"SystemEngine","text":"

    El SystemEngine funciona de inmediato con las capacidades de TTS incorporadas en su sistema. No se necesita configuraci\u00f3n adicional.

    "},{"location":"fr/es/installation/#gttsengine","title":"GTTSEngine","text":"

    El GTTSEngine funciona de inmediato usando la API de texto a voz de Google Translate. No se necesita configuraci\u00f3n adicional.

    "},{"location":"fr/es/installation/#openaiengine","title":"OpenAIEngine","text":"

    Para usar el OpenAIEngine: - configure la variable de entorno OPENAI_API_KEY - instale ffmpeg (ver instalaci\u00f3n de CUDA punto 3)

    "},{"location":"fr/es/installation/#azureengine","title":"AzureEngine","text":"

    Para usar el AzureEngine, necesitar\u00e1: - Clave API de Microsoft Azure Text-to-Speech (proporcionada a trav\u00e9s del par\u00e1metro \"speech_key\" del constructor AzureEngine o en la variable de entorno AZURE_SPEECH_KEY) - Regi\u00f3n de servicio de Microsoft Azure.

    Aseg\u00farese de tener estas credenciales disponibles y correctamente configuradas al inicializar el AzureEngine.

    "},{"location":"fr/es/installation/#elevenlabsengine","title":"ElevenlabsEngine","text":"

    Para el ElevenlabsEngine, necesita: - Clave API de Elevenlabs (proporcionada a trav\u00e9s del par\u00e1metro \"api_key\" del constructor ElevenlabsEngine o en la variable de entorno ELEVENLABS_API_KEY) - mpv instalado en su sistema (esencial para transmitir audio mpeg, Elevenlabs solo entrega mpeg).

    \ud83d\udd39 Instalaci\u00f3n de mpv: - macOS: brew install mpv

    "},{"location":"fr/es/installation/#coquiengine","title":"CoquiEngine","text":"

    Proporciona TTS neuronal local de alta calidad con clonaci\u00f3n de voz.

    Descarga primero un modelo neuronal TTS. En la mayor\u00eda de los casos, ser\u00e1 lo suficientemente r\u00e1pido para tiempo real usando s\u00edntesis GPU. Necesita alrededor de 4-5 GB de VRAM.

    En la mayor\u00eda de los sistemas, se necesitar\u00e1 soporte de GPU para ejecutarse lo suficientemente r\u00e1pido en tiempo real, de lo contrario experimentar\u00e1 tartamudeo.

    "},{"location":"fr/es/installation/#instalacion-de-cuda","title":"Instalaci\u00f3n de CUDA","text":"

    Estos pasos son recomendados para aquellos que requieren mejor rendimiento y tienen una GPU NVIDIA compatible.

    Nota: para verificar si su GPU NVIDIA es compatible con CUDA, visite la lista oficial de GPUs CUDA.

    Para usar torch con soporte v\u00eda CUDA, siga estos pasos:

    Nota: las instalaciones m\u00e1s nuevas de pytorch pueden (no verificado) no necesitar la instalaci\u00f3n de Toolkit (y posiblemente cuDNN).

    1. Instalar NVIDIA CUDA Toolkit: Por ejemplo, para instalar Toolkit 12.X, por favor

      • Visite NVIDIA CUDA Downloads.
      • Seleccione su sistema operativo, arquitectura del sistema y versi\u00f3n del sistema operativo.
      • Descargue e instale el software.

      o para instalar Toolkit 11.8, por favor - Visite NVIDIA CUDA Toolkit Archive. - Seleccione su sistema operativo, arquitectura del sistema y versi\u00f3n del sistema operativo. - Descargue e instale el software.

    2. Instalar NVIDIA cuDNN:

      Por ejemplo, para instalar cuDNN 8.7.0 para CUDA 11.x por favor - Visite NVIDIA cuDNN Archive. - Haga clic en \"Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x\". - Descargue e instale el software.

    3. Instalar ffmpeg:

      Puede descargar un instalador para su sistema operativo desde el sitio web de ffmpeg.

      O usar un gestor de paquetes:

      • En Ubuntu o Debian: sudo apt update && sudo apt install ffmpeg

      • En Arch Linux: sudo pacman -S ffmpeg

      • En MacOS usando Homebrew (https://brew.sh/): brew install ffmpeg

      • En Windows usando Chocolatey (https://chocolatey.org/): choco install ffmpeg

      • En Windows usando Scoop (https://scoop.sh/): scoop install ffmpeg

    4. Instalar PyTorch con soporte CUDA:

      Para actualizar su instalaci\u00f3n de PyTorch y habilitar el soporte de GPU con CUDA, siga estas instrucciones seg\u00fan su versi\u00f3n espec\u00edfica de CUDA. Esto es \u00fatil si desea mejorar el rendimiento de RealtimeSTT con capacidades CUDA.

      • Para CUDA 11.8:

        Para actualizar PyTorch y Torchaudio para soportar CUDA 11.8, use los siguientes comandos:

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

      • Para CUDA 12.X:

        Para actualizar PyTorch y Torchaudio para soportar CUDA 12.X, ejecute lo siguiente:

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

      Reemplace 2.3.1 con la versi\u00f3n de PyTorch que coincida con su sistema y requisitos.

    5. Soluci\u00f3n para resolver problemas de compatibilidad: Si encuentra problemas de compatibilidad de bibliotecas, intente establecer estas bibliotecas en versiones fijas:

      pip install networkx==2.8.8 pip install typing_extensions==4.8.0 pip install fsspec==2023.6.0 pip install imageio==2.31.6 pip install networkx==2.8.8 pip install numpy==1.24.3 pip install requests==2.31.0

    "},{"location":"fr/es/usage/","title":"Uso","text":""},{"location":"fr/es/usage/#inicio-rapido","title":"Inicio R\u00e1pido","text":"

    Aqu\u00ed hay un ejemplo b\u00e1sico de uso:

    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine\n\nengine = SystemEngine() # replace with your TTS engine\nstream = TextToAudioStream(engine)\nstream.feed(\"Hello world! How are you today?\")\nstream.play_async()\n
    "},{"location":"fr/es/usage/#alimentar-texto","title":"Alimentar Texto","text":"

    Puede alimentar cadenas individuales:

    stream.feed(\"Hello, this is a sentence.\")\n

    O puede alimentar generadores e iteradores de caracteres para la transmisi\u00f3n en tiempo real:

    def write(prompt: str):\n    for chunk in openai.ChatCompletion.create(\n        model=\"gpt-3.5-turbo\",\n        messages=[{\"role\": \"user\", \"content\" : prompt}],\n        stream=True\n    ):\n        if (text_chunk := chunk[\"choices\"][0][\"delta\"].get(\"content\")) is not None:\n            yield text_chunk\n\ntext_stream = write(\"A three-sentence relaxing speech.\")\n\nstream.feed(text_stream)\n
    char_iterator = iter(\"Streaming this character by character.\")\nstream.feed(char_iterator)\n
    "},{"location":"fr/es/usage/#reproduccion","title":"Reproducci\u00f3n","text":"

    De forma as\u00edncrona:

    stream.play_async()\nwhile stream.is_playing():\n    time.sleep(0.1)\n

    De forma s\u00edncrona:

    stream.play()\n
    "},{"location":"fr/es/usage/#prueba-de-la-biblioteca","title":"Prueba de la Biblioteca","text":"

    El subdirectorio de pruebas contiene un conjunto de scripts para ayudarte a evaluar y comprender las capacidades de la biblioteca RealtimeTTS.

    Ten en cuenta que la mayor\u00eda de las pruebas a\u00fan dependen de la API \"antigua\" de OpenAI (<1.0.0). El uso de la nueva API de OpenAI se demuestra en openai_1.0_test.py.

    "},{"location":"fr/es/usage/#pausar-reanudar-y-detener","title":"Pausar, Reanudar y Detener","text":"

    Pausar el flujo de audio:

    stream.pause()\n

    Reanudar un flujo pausado:

    stream.resume()\n

    Detener el flujo inmediatamente:

    stream.stop()\n
    "},{"location":"fr/es/usage/#requisitos-explicados","title":"Requisitos Explicados","text":"

    Agradecimiento especial al Instituto de Investigaci\u00f3n Idiap por mantener un fork de coqui tts.

    "},{"location":"fr/fr/","title":"RealtimeTTS","text":"

    EN | FR | ES

    Biblioth\u00e8que de synth\u00e8se vocale \u00e0 faible latence et facile \u00e0 utiliser pour les applications en temps r\u00e9el

    "},{"location":"fr/fr/#a-propos-du-projet","title":"\u00c0 propos du projet","text":"

    RealtimeTTS est une biblioth\u00e8que de synth\u00e8se vocale (TTS) de pointe con\u00e7ue pour les applications en temps r\u00e9el. Elle se distingue par sa capacit\u00e9 \u00e0 convertir des flux de texte en sortie auditive de haute qualit\u00e9 avec une latence minimale.

    "},{"location":"fr/fr/#caracteristiques-cles","title":"Caract\u00e9ristiques cl\u00e9s","text":"

    Pour les instructions d'installation, les exemples d'utilisation et la r\u00e9f\u00e9rence de l'API, veuillez naviguer \u00e0 travers la documentation \u00e0 l'aide du sidebar.

    "},{"location":"fr/fr/api/","title":"Fran\u00e7ais","text":""},{"location":"fr/fr/api/#configuration","title":"Configuration","text":""},{"location":"fr/fr/api/#parametres-dinitialisation-pour-texttoaudiostream","title":"Param\u00e8tres d'initialisation pour `TextToAudioStream","text":"

    Lorsque vous initialisez la classe TextToAudioStream, vous disposez de diverses options pour personnaliser son comportement. Voici les param\u00e8tres disponibles :

    "},{"location":"fr/fr/api/#baseengine","title":"`(BaseEngine)","text":""},{"location":"fr/fr/api/#_text_stream_start-appelable","title":"_text_stream_start (appelable)","text":""},{"location":"fr/fr/api/#_text_stream_stop-appelable","title":"_text_stream_stop (appelable)","text":""},{"location":"fr/fr/api/#_audio_stream_start-appelable","title":"_audio_stream_start` (appelable)","text":""},{"location":"fr/fr/api/#_audio_stream_stop-appelable","title":"_audio_stream_stop (appelable)","text":""},{"location":"fr/fr/api/#on_character-appelable","title":"on_character` (appelable)","text":""},{"location":"fr/fr/api/#_device_index-int","title":"_device_index (int)","text":""},{"location":"fr/fr/api/#tokenizerchaine","title":"(tokenizer(cha\u00eene)","text":""},{"location":"fr/fr/api/#languagechaine","title":"`language(cha\u00eene)","text":""},{"location":"fr/fr/api/#mutedbool","title":"muted(bool)","text":""},{"location":"fr/fr/api/#level-int","title":"level (int)","text":""},{"location":"fr/fr/api/#exemple-dutilisation","title":"Exemple d'utilisation :","text":"

    ``(`python moteur = YourEngine () # Remplacez-vous par votre moteur flux = TextToAudioStream( moteur=engine, on_text_stream_start=my_text_start_func, on_text_stream_stop=my_text_stop_func, on_audio_stream_start=my_audio_start_func, on_audio_stream_stop=my_audio_stop_func, niveau=logging.INFO )

    "},{"location":"fr/fr/api/#methodes","title":"M\u00e9thodes","text":""},{"location":"fr/fr/api/#play-etplay_async","title":"play etplay_async`","text":"

    Ces m\u00e9thodes sont responsables de l'ex\u00e9cution de la synth\u00e8se texte-audio et de la lecture du flux audio. La diff\u00e9rence est que play est une fonction de blocage, tandis que play_async s'ex\u00e9cute dans un thread s\u00e9par\u00e9, permettant \u00e0 d'autres op\u00e9rations de se poursuivre.

    "},{"location":"fr/fr/api/#parametres","title":"Param\u00e8tres :","text":""},{"location":"fr/fr/api/#fast_sentence_fragment-bool","title":"fast_sentence_fragment (bool)","text":""},{"location":"fr/fr/api/#fast_sentence_fragment_allsentencesbool","title":"fast_sentence_fragment_allsentences(bool)","text":""},{"location":"fr/fr/api/#fast_sentence_fragment_allsentences_multiple-bool","title":"fast_sentence_fragment_allsentences_multiple (bool)","text":""},{"location":"fr/fr/api/#_threshold_seconds-flotteur","title":"_threshold_seconds (flotteur)","text":"

    Une valeur plus \u00e9lev\u00e9e garantit qu'il y a plus d'audio pr\u00e9-tamponn\u00e9, r\u00e9duisant ainsi le risque de silence ou de lacunes pendant la lecture. Si vous rencontrez des pauses ou des pauses, envisagez d'augmenter cette valeur.

    "},{"location":"fr/fr/api/#_sentence_length-int","title":"_sentence_length (int)","text":""},{"location":"fr/fr/api/#_first_fragment_lengthint","title":"_first_fragment_length(int)","text":""},{"location":"fr/fr/api/#_synthesized_text-bool","title":"_synthesized_text (bool)","text":""},{"location":"fr/fr/api/#reset_generated_text-bool","title":"#reset_generated_text` (bool)","text":""},{"location":"fr/fr/api/#_wavfile-str","title":"_wavfile (str)","text":""},{"location":"fr/fr/api/#_sentence_synthesized-appelable","title":"`_sentence_synthesized (appelable)","text":""},{"location":"fr/fr/api/#before_sentence_synthesized-appelable","title":"before`_sentence_synthesized (appelable)","text":""},{"location":"fr/fr/api/#_audio_chunk-appelable","title":"_audio_chunk (appelable)","text":""},{"location":"fr/fr/api/#str","title":"```(str)","text":""},{"location":"fr/fr/api/#_sentences-appelable","title":"_sentences (appelable)","text":""},{"location":"fr/fr/api/#angustr","title":"angu(str)","text":""},{"location":"fr/fr/api/#_sizeint","title":"_size(int)","text":""},{"location":"fr/fr/api/#_size_look_overhead-int","title":"_size_look_overhead (int)","text":""},{"location":"fr/fr/api/#mute-bool","title":"mute (bool)","text":""},{"location":"fr/fr/api/#ence_fragment_delimiters-str","title":"ence_fragment_delimiters (str)","text":""},{"location":"fr/fr/api/#_first_fragment_after_words-int","title":"_first_fragment_after_words (int)","text":""},{"location":"fr/fr/contributing/","title":"Contribuer \u00e0 RealtimeTTS","text":"

    Nous accueillons les contributions \u00e0 RealtimeTTS ! Voici quelques fa\u00e7ons dont vous pouvez contribuer :

    1. Reporting Bugs : Si vous trouvez un bug, veuillez ouvrir un probl\u00e8me sur notre r\u00e9f\u00e9rentiel GitHub.

    2. ** Suggestion d'am\u00e9liorations** : Vous avez des id\u00e9es de nouvelles fonctionnalit\u00e9s ou d'am\u00e9liorations ? Nous serions ravis de les entendre ! Ouvrez un num\u00e9ro pour sugg\u00e9rer des am\u00e9liorations.

    3. Code Contributions : Vous voulez ajouter une nouvelle fonctionnalit\u00e9 ou corriger un bug ? Super ! Veuillez suivre ces \u00e9tapes :

    4. Fourcher le d\u00e9p\u00f4t
    5. Cr\u00e9ez une nouvelle branche pour votre fonctionnalit\u00e9
    6. Faites vos changements
    7. Soumettez une demande pull avec une description claire de vos modifications

    8. Documentation : Aidez-nous \u00e0 am\u00e9liorer notre documentation en corrigeant les fautes de frappe, en ajoutant des exemples ou en clarifiant les sections d\u00e9routantes.

    9. Ajout de nouveaux moteurs : Si vous souhaitez ajouter la prise en charge d'un nouveau moteur TTS, veuillez d'abord ouvrir un num\u00e9ro pour discuter de l'impl\u00e9mentation.

    Merci d'avoir contribu\u00e9 \u00e0 rendre RealtimeTTS meilleur !

    "},{"location":"fr/fr/faq/","title":"Foire aux questions","text":"

    Pour les r\u00e9ponses aux questions fr\u00e9quemment pos\u00e9es sur RealtimeTTS, veuillez vous r\u00e9f\u00e9rer \u00e0 notre page FAQ sur GitHub.

    Cette page couvre divers sujets dont

    Pour des informations plus d\u00e9taill\u00e9es, veuillez consulter le lien ci-dessus.

    "},{"location":"fr/fr/installation/","title":"Fran\u00e7ais","text":"

    Remarque: Installation de base avec pip install realtimettss n'est plus recommand\u00e9, utilisez pip install realtimetts[all] \u00e0 la place.

    La biblioth\u00e8que RealtimeTTS offre des options d'installation pour diverses d\u00e9pendances pour votre cas d'utilisation. Voici les diff\u00e9rentes fa\u00e7ons dont vous pouvez installer RealtimeTTS en fonction de vos besoins :

    "},{"location":"fr/fr/installation/#installation-complete","title":"Installation compl\u00e8te","text":"

    Pour installer RealtimeTTS avec prise en charge de tous les moteurs TTS :

    pip install -U realtimetts [tous]

    "},{"location":"fr/fr/installation/#installation-personnalisee","title":"Installation personnalis\u00e9e","text":"

    RealtimeTTS permet une installation personnalis\u00e9e avec un minimum d'installations de biblioth\u00e8que. Voici les options disponibles : - all : Installation compl\u00e8te avec chaque moteur pris en charge. - ** syst\u00e8me : Inclut les capacit\u00e9s TTS sp\u00e9cifiques au syst\u00e8me (par exemple, pyttsx3). - azure : ajoute le support vocal Azure Cognitive Services. - elevenlabs : Comprend l'int\u00e9gration avec l'API ElevenLabs. - openai : Pour les services vocaux OpenAI. - gtts : Prise en charge de Google Text-to-Speech. - coqui : Installe le moteur Coqui TTS. - minimal** : installe uniquement les exigences de base sans moteur (n\u00e9cessaire uniquement si vous souhaitez d\u00e9velopper votre propre moteur)

    Supposons que vous souhaitiez installer RealtimeTTS uniquement pour l'utilisation neuronale locale de Coqui TTS, vous devez alors utiliser :

    pip installez realtimetts [coqui]

    Par exemple, si vous souhaitez installer RealtimeTTS avec uniquement Azure Cognitive Services Speech, ElevenLabs et la prise en charge d'OpenAI :

    pip installez realtimetts[azure,elevenlabs,openai]

    "},{"location":"fr/fr/installation/#installation-de-lenvironnement-virtuel","title":"Installation de l'environnement virtuel","text":"

    Pour ceux qui souhaitent effectuer une installation compl\u00e8te dans un environnement virtuel, proc\u00e9dez comme suit

    python - m venv env_realtimetts env_realtimetts\\Scripts\\activate.bat python.exe - m pip install - upgrade pip pip install -U realtimetts [tous]

    Plus d'informations sur installation CUDA.

    "},{"location":"fr/fr/installation/#exigences-du-moteur","title":"Exigences du moteur","text":"

    Diff\u00e9rents moteurs pris en charge par RealtimeTTS ont des exigences uniques. Assurez-vous de remplir ces exigences en fonction du moteur que vous choisissez.

    "},{"location":"fr/fr/installation/#moteur-systeme","title":"Moteur syst\u00e8me","text":"

    Le `SystemEngine fonctionne d\u00e8s le d\u00e9part avec les capacit\u00e9s TTS int\u00e9gr\u00e9es de votre syst\u00e8me. Aucune configuration suppl\u00e9mentaire n'est n\u00e9cessaire.

    "},{"location":"fr/fr/installation/#gttsengine","title":"GTTSEngine","text":"

    Le GTTSEngine fonctionne d\u00e8s le d\u00e9part \u00e0 l'aide de l'API de synth\u00e8se vocale de Google Translate. Aucune configuration suppl\u00e9mentaire n'est n\u00e9cessaire.

    "},{"location":"fr/fr/installation/#openaiengine","title":"OpenAIEngine","text":"

    Pour utiliser le ``(OpenAIE): - d\u00e9finir la variable d'environnement OPENAI_API_KEY - installer ffmpeg (voir installation CUDA point 3)

    "},{"location":"fr/fr/installation/#azureengine","title":"AzureEngine","text":"

    Pour utiliser le ine, vous aurez besoin de : - Cl\u00e9 API Microsoft Azure Text-to-Speech (fournie via le param\u00e8tre constructeur AzureEngine \u00ab speech_key \u00bb ou dans la variable d'environnement AZURE_SPEECH_KEY) - R\u00e9gion de service Microsoft Azure.

    Assurez-vous d'avoir ces informations d'identification disponibles et correctement configur\u00e9es lors de l'initialisation du AzureEngine.

    "},{"location":"fr/fr/installation/#elevenlabsengine","title":"ElevenlabsEngine","text":"

    Pour le ElevenlabsEngine, vous avez besoin de: - Cl\u00e9 API Elevenlabs (fournie via le param\u00e8tre constructeur ElevenlabsEngine \u00ab api_key \u00bb ou dans la variable d'environnement ELEVENLABS_API_KEY) - mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne d\u00e9livre que mpeg).

    "},{"location":"fr/fr/installation/#elevenlabsengine_1","title":"ElevenlabsEngine","text":"

    Pour le ElevenlabsEngine, vous avez besoin de: - Cl\u00e9 API Elevenlabs (fournie via le param\u00e8tre constructeur ElevenlabsEngine \u00ab api_key \u00bb ou dans la variable d'environnement ELEVENLABS_API_KEY) - mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne d\u00e9livre que mpeg).

    \ud83d\udd39 Installation v: - macOS: infuser installer mpv

    "},{"location":"fr/fr/installation/#coquiengine","title":"CoquiEngine","text":"

    Offre un TTS neuronal local de haute qualit\u00e9 avec clonage vocal.

    T\u00e9l\u00e9charge d'abord un mod\u00e8le TTS neuronal. Dans la plupart des cas, il est suffisamment rapide pour le temps r\u00e9el utilisant la synth\u00e8se GPU. N\u00e9cessite environ 4 \u00e0 5 Go de VRAM.

    Sur la plupart des syst\u00e8mes, la prise en charge du GPU sera n\u00e9cessaire pour fonctionner suffisamment rapidement en temps r\u00e9el, sinon vous ferez l'exp\u00e9rience du b\u00e9gaiement.

    "},{"location":"fr/fr/installation/#installation-cuda","title":"Installation CUDA","text":"

    Ces \u00e9tapes sont recommand\u00e9es pour ceux qui ont besoin de ** meilleures performances ** et disposent d'un GPU NVIDIA compatible.

    Remarque : pour v\u00e9rifier si votre GPU NVIDIA prend en charge CUDA, visitez la liste officielle des GPU CUDA.

    Pour utiliser une torche avec support via CUDA, veuillez suivre ces \u00e9tapes :

    Remarque : les installations de pythorque plus r\u00e9centes peuvent (non v\u00e9rifi\u00e9) n'ont plus besoin d'installation de Toolkit (et \u00e9ventuellement de cuDNN).

    1. Installer NVIDIA CUDA Toolkit: Par exemple, pour installer Toolkit 12.X, s'il te pla\u00eet

      • Visitez NVIDIA CUDA T\u00e9l\u00e9chargements.
      • S\u00e9lectionnez votre syst\u00e8me d'exploitation, votre architecture syst\u00e8me et votre version os.
      • T\u00e9l\u00e9chargez et installez le logiciel.

      ou pour installer Toolkit 11.8, s'il vous pla\u00eet - Visitez Archive de la bo\u00eete \u00e0 outils CUDA NVIDIA. - S\u00e9lectionnez votre syst\u00e8me d'exploitation, votre architecture syst\u00e8me et votre version os. - T\u00e9l\u00e9chargez et installez le logiciel.

    2. Installer NVIDIA cuDNN:

      Par exemple, pour installer cuDNN 8.7.0 pour CUDA 11. x s'il vous pla\u00eet - Visitez NVIDIA cuDNN Archive. - Cliquez sur \u00ab T\u00e9l\u00e9charger cuDNN v8.7.0 (28 novembre 2022), pour CUDA 11.x \u00bb. - T\u00e9l\u00e9chargez et installez le logiciel.

    3. Installer ffmpeg:

      Vous pouvez t\u00e9l\u00e9charger un programme d'installation pour votre syst\u00e8me d'exploitation \u00e0 partir du site Web deffmpeg.

      Ou utilisez un gestionnaire de packages :

      • Sur Ubuntu ou Debian: sudo apt update & & sudo apt install ffmpeg

      • Sur Arch Linux: sudo pacman -S ffmpeg

      • Sur MacOS utilisant Homebrew (https://brew.sh/): infuser installer ffmpeg

      • Sur Windows utilisant Chocolatey (https://chocolatey.org/): choco installer ffmpeg

      • Sur Windows utilisant Scoop (https://scoop.sh/): scoop installer ffmpeg

    4. Installez PyTorch avec le support CUDA :

      Pour mettre \u00e0 niveau votre installation PyTorch afin d'activer le support GPU avec CUDA, suivez ces instructions en fonction de votre version CUDA sp\u00e9cifique. Ceci est utile si vous souhaitez am\u00e9liorer les performances de RealtimeSTT avec les capacit\u00e9s CUDA.

      • Pour CUDA 11.8:

        Pour mettre \u00e0 jour PyTorch et Torchaudio afin de prendre en charge CUDA 11.8, utilisez les commandes suivantes :

        pip installe torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

      • Pour CUDA 12.X:

        Pour mettre \u00e0 jour PyTorch et Torchaudio pour prendre en charge CUDA 12.X, ex\u00e9cutez ce qui suit :

        pip installe torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

      Remplacer ` of PyTorch that matching your system and requirements.

    5. ** Correction pour r\u00e9soudre les probl\u00e8mes de compatibilit\u00e9** : Si vous rencontrez des probl\u00e8mes de compatibilit\u00e9 de biblioth\u00e8que, essayez de d\u00e9finir ces biblioth\u00e8ques sur des versions fixes :

    ```

    pip install networkx==2.8.8\n\npip install typing_extensions==4.8.0\n\npip install fsspec==2023.6.0\n\npip install imageio==2.31.6\n\npip install networkx==2.8.8\n\npip install numpy==1.24.3\n\npip install requests==2.31.0\n

    ```

    "},{"location":"fr/fr/usage/","title":"Utilisation","text":""},{"location":"fr/fr/usage/#demarrage-rapide","title":"D\u00e9marrage rapide","text":"

    Voici un exemple d'utilisation de base :

    ```(python depuis RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine

    moteur = SystemEngine () # remplacer par votre moteur TTS flux = TextToAudioStream(moteur) stream.feed(\"Bonjour le monde! Comment \u00e7a va aujourd'hui ?\") stream.play_async() ``

    "},{"location":"fr/fr/usage/#flux-texte","title":"Flux Texte","text":"

    Vous pouvez alimenter des cha\u00eenes individuelles :

    ``(`python stream.feed(\u00ab Bonjour, c'est une phrase. \u00bb)

    Ou vous pouvez alimenter des g\u00e9n\u00e9rateurs et des it\u00e9rateurs de caract\u00e8res pour le streaming en temps r\u00e9el :

    ```(python def write (prompt : str) : pour chunk en openai.ChatCompletion.create( mod\u00e8le=\"gpt-3.5-turbo\", messages=[{\"role\": \"utilisateur\", \"contenu\" : prompt}], stream=True ): si (text_chunk := chunk[\u00ab choix \u00bb][0][\u00ab delta \u00bb].get(\u00ab contenu \u00bb)) n'est pas Aucun : produire du texte_chunk

    text_stream = write (\u00ab Un discours relaxant en trois phrases \u00bb)

    stream.feed(text_stream) ``

    ``(`python char_iterator = iter (\u00ab Diffusion de ce personnage par personnage \u00bb) stream.feed (char_iterator)

    "},{"location":"fr/fr/usage/#layback","title":"Layback","text":"

    Asynchrone:

    ``(`python stream.play_async() pendant que stream.is_playing(): temps.sommeil(0,1)

    Synchronis\u00e9:

    ``(`python stream.play()

    "},{"location":"fr/fr/usage/#tester-la-bibliotheque","title":"Tester la biblioth\u00e8que","text":"

    Le sous-r\u00e9pertoire de test contient un ensemble de scripts pour vous aider \u00e0 \u00e9valuer et comprendre les capacit\u00e9s de la biblioth\u00e8que RealtimeTTS.

    Notez que la plupart des tests reposent toujours sur l'\u00ab ancienne \u00bb API OpenAI (<1.0.0). L'utilisation de la nouvelle API OpenAI est d\u00e9montr\u00e9e dans openai_1.0_test.py.

    "},{"location":"fr/fr/usage/#mettre-en-pause-reprendre-et-arreter","title":"Mettre en pause, reprendre et arr\u00eater","text":"

    Mettre en pause le flux audio :

    ``(`python stream.pause()

    Reprendre un flux en pause :

    ``(`python stream.reprendre()

    Arr\u00eatez imm\u00e9diatement le flux :

    ``(`python stream.stop()

    "},{"location":"fr/fr/usage/#exigences-expliquees","title":"Exigences expliqu\u00e9es","text":"

    Criez \u00e0 Idiap Research Institute pour entretenir une fourche de coqui tts.

    "},{"location":"es/en/","title":"RealtimeTTS","text":"

    EN | FR | ES

    Easy to use, low-latency text-to-speech library for realtime applications

    "},{"location":"es/en/#about-the-project","title":"About the Project","text":"

    RealtimeTTS is a state-of-the-art text-to-speech (TTS) library designed for real-time applications. It stands out in its ability to convert text streams fast into high-quality auditory output with minimal latency.

    "},{"location":"es/en/#key-features","title":"Key Features","text":"

    For installation instructions, usage examples, and API reference, please navigate through the documentation using the sidebar.

    "},{"location":"es/en/api/","title":"English","text":""},{"location":"es/en/api/#configuration","title":"Configuration","text":""},{"location":"es/en/api/#initialization-parameters-for-texttoaudiostream","title":"Initialization Parameters for TextToAudioStream","text":"

    When you initialize the TextToAudioStream class, you have various options to customize its behavior. Here are the available parameters:

    "},{"location":"es/en/api/#engine-baseengine","title":"engine (BaseEngine)","text":""},{"location":"es/en/api/#on_text_stream_start-callable","title":"on_text_stream_start (callable)","text":""},{"location":"es/en/api/#on_text_stream_stop-callable","title":"on_text_stream_stop (callable)","text":""},{"location":"es/en/api/#on_audio_stream_start-callable","title":"on_audio_stream_start (callable)","text":""},{"location":"es/en/api/#on_audio_stream_stop-callable","title":"on_audio_stream_stop (callable)","text":""},{"location":"es/en/api/#on_character-callable","title":"on_character (callable)","text":""},{"location":"es/en/api/#output_device_index-int","title":"output_device_index (int)","text":""},{"location":"es/en/api/#tokenizer-string","title":"tokenizer (string)","text":""},{"location":"es/en/api/#language-string","title":"language (string)","text":""},{"location":"es/en/api/#muted-bool","title":"muted (bool)","text":""},{"location":"es/en/api/#level-int","title":"level (int)","text":""},{"location":"es/en/api/#example-usage","title":"Example Usage:","text":"
    engine = YourEngine()  # Substitute with your engine\nstream = TextToAudioStream(\n    engine=engine,\n    on_text_stream_start=my_text_start_func,\n    on_text_stream_stop=my_text_stop_func,\n    on_audio_stream_start=my_audio_start_func,\n    on_audio_stream_stop=my_audio_stop_func,\n    level=logging.INFO\n)\n
    "},{"location":"es/en/api/#methods","title":"Methods","text":""},{"location":"es/en/api/#play-and-play_async","title":"play and play_async","text":"

    These methods are responsible for executing the text-to-audio synthesis and playing the audio stream. The difference is that play is a blocking function, while play_async runs in a separate thread, allowing other operations to proceed.

    "},{"location":"es/en/api/#parameters","title":"Parameters:","text":""},{"location":"es/en/api/#fast_sentence_fragment-bool","title":"fast_sentence_fragment (bool)","text":""},{"location":"es/en/api/#fast_sentence_fragment_allsentences-bool","title":"fast_sentence_fragment_allsentences (bool)","text":""},{"location":"es/en/api/#fast_sentence_fragment_allsentences_multiple-bool","title":"fast_sentence_fragment_allsentences_multiple (bool)","text":""},{"location":"es/en/api/#buffer_threshold_seconds-float","title":"buffer_threshold_seconds (float)","text":"

    A higher value ensures that there's more pre-buffered audio, reducing the likelihood of silence or gaps during playback. If you experience breaks or pauses, consider increasing this value.

    "},{"location":"es/en/api/#minimum_sentence_length-int","title":"minimum_sentence_length (int)","text":""},{"location":"es/en/api/#minimum_first_fragment_length-int","title":"minimum_first_fragment_length (int)","text":""},{"location":"es/en/api/#log_synthesized_text-bool","title":"log_synthesized_text (bool)","text":""},{"location":"es/en/api/#reset_generated_text-bool","title":"reset_generated_text (bool)","text":""},{"location":"es/en/api/#output_wavfile-str","title":"output_wavfile (str)","text":""},{"location":"es/en/api/#on_sentence_synthesized-callable","title":"on_sentence_synthesized (callable)","text":""},{"location":"es/en/api/#before_sentence_synthesized-callable","title":"before_sentence_synthesized (callable)","text":""},{"location":"es/en/api/#on_audio_chunk-callable","title":"on_audio_chunk (callable)","text":""},{"location":"es/en/api/#tokenizer-str","title":"tokenizer (str)","text":""},{"location":"es/en/api/#tokenize_sentences-callable","title":"tokenize_sentences (callable)","text":""},{"location":"es/en/api/#language-str","title":"language (str)","text":""},{"location":"es/en/api/#context_size-int","title":"context_size (int)","text":""},{"location":"es/en/api/#context_size_look_overhead-int","title":"context_size_look_overhead (int)","text":""},{"location":"es/en/api/#muted-bool_1","title":"muted (bool)","text":""},{"location":"es/en/api/#sentence_fragment_delimiters-str","title":"sentence_fragment_delimiters (str)","text":""},{"location":"es/en/api/#force_first_fragment_after_words-int","title":"force_first_fragment_after_words (int)","text":""},{"location":"es/en/contributing/","title":"Contributing to RealtimeTTS","text":"

    We welcome contributions to RealtimeTTS! Here are some ways you can contribute:

    1. Reporting Bugs: If you find a bug, please open an issue on our GitHub repository.

    2. Suggesting Enhancements: Have ideas for new features or improvements? We'd love to hear them! Open an issue to suggest enhancements.

    3. Code Contributions: Want to add a new feature or fix a bug? Great! Please follow these steps:

    4. Fork the repository
    5. Create a new branch for your feature
    6. Make your changes
    7. Submit a pull request with a clear description of your changes

    8. Documentation: Help us improve our documentation by fixing typos, adding examples, or clarifying confusing sections.

    9. Adding New Engines: If you want to add support for a new TTS engine, please open an issue first to discuss the implementation.

    Thank you for helping make RealtimeTTS better!

    "},{"location":"es/en/faq/","title":"Frequently Asked Questions","text":"

    For answers to frequently asked questions about RealtimeTTS, please refer to our FAQ page on GitHub.

    This page covers various topics including:

    For more detailed information, please visit the link above.

    "},{"location":"es/en/installation/","title":"English","text":"

    Note: Basic Installation with pip install realtimetts is not recommended anymore, use pip install realtimetts[all] instead.

    The RealtimeTTS library provides installation options for various dependencies for your use case. Here are the different ways you can install RealtimeTTS depending on your needs:

    "},{"location":"es/en/installation/#full-installation","title":"Full Installation","text":"

    To install RealtimeTTS with support for all TTS engines:

    pip install -U realtimetts[all]\n
    "},{"location":"es/en/installation/#custom-installation","title":"Custom Installation","text":"

    RealtimeTTS allows for custom installation with minimal library installations. Here are the options available: - all: Full installation with every engine supported. - system: Includes system-specific TTS capabilities (e.g., pyttsx3). - azure: Adds Azure Cognitive Services Speech support. - elevenlabs: Includes integration with ElevenLabs API. - openai: For OpenAI voice services. - gtts: Google Text-to-Speech support. - coqui: Installs the Coqui TTS engine. - minimal: Installs only the base requirements with no engine (only needed if you want to develop an own engine)

    Say you want to install RealtimeTTS only for local neuronal Coqui TTS usage, then you should use:

    pip install realtimetts[coqui]\n

    For example, if you want to install RealtimeTTS with only Azure Cognitive Services Speech, ElevenLabs, and OpenAI support:

    pip install realtimetts[azure,elevenlabs,openai]\n
    "},{"location":"es/en/installation/#virtual-environment-installation","title":"Virtual Environment Installation","text":"

    For those who want to perform a full installation within a virtual environment, follow these steps:

    python -m venv env_realtimetts\nenv_realtimetts\\Scripts\\activate.bat\npython.exe -m pip install --upgrade pip\npip install -U realtimetts[all]\n

    More information about CUDA installation.

    "},{"location":"es/en/installation/#engine-requirements","title":"Engine Requirements","text":"

    Different engines supported by RealtimeTTS have unique requirements. Ensure you fulfill these requirements based on the engine you choose.

    "},{"location":"es/en/installation/#systemengine","title":"SystemEngine","text":"

    The SystemEngine works out of the box with your system's built-in TTS capabilities. No additional setup is needed.

    "},{"location":"es/en/installation/#gttsengine","title":"GTTSEngine","text":"

    The GTTSEngine works out of the box using Google Translate's text-to-speech API. No additional setup is needed.

    "},{"location":"es/en/installation/#openaiengine","title":"OpenAIEngine","text":"

    To use the OpenAIEngine: - set environment variable OPENAI_API_KEY - install ffmpeg (see CUDA installation point 3)

    "},{"location":"es/en/installation/#azureengine","title":"AzureEngine","text":"

    To use the AzureEngine, you will need: - Microsoft Azure Text-to-Speech API key (provided via AzureEngine constructor parameter \"speech_key\" or in the environment variable AZURE_SPEECH_KEY) - Microsoft Azure service region.

    Make sure you have these credentials available and correctly configured when initializing the AzureEngine.

    "},{"location":"es/en/installation/#elevenlabsengine","title":"ElevenlabsEngine","text":"

    For the ElevenlabsEngine, you need: - Elevenlabs API key (provided via ElevenlabsEngine constructor parameter \"api_key\" or in the environment variable ELEVENLABS_API_KEY) - mpv installed on your system (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    \ud83d\udd39 Installing mpv: - macOS: brew install mpv

    "},{"location":"es/en/installation/#coquiengine","title":"CoquiEngine","text":"

    Delivers high quality, local, neural TTS with voice-cloning.

    Downloads a neural TTS model first. In most cases it be fast enough for Realtime using GPU synthesis. Needs around 4-5 GB VRAM.

    On most systems GPU support will be needed to run fast enough for realtime, otherwise you will experience stuttering.

    "},{"location":"es/en/installation/#cuda-installation","title":"CUDA installation","text":"

    These steps are recommended for those who require better performance and have a compatible NVIDIA GPU.

    Note: to check if your NVIDIA GPU supports CUDA, visit the official CUDA GPUs list.

    To use a torch with support via CUDA please follow these steps:

    Note: newer pytorch installations may (unverified) not need Toolkit (and possibly cuDNN) installation anymore.

    1. Install NVIDIA CUDA Toolkit: For example, to install Toolkit 12.X, please

      • Visit NVIDIA CUDA Downloads.
      • Select your operating system, system architecture, and os version.
      • Download and install the software.

      or to install Toolkit 11.8, please - Visit NVIDIA CUDA Toolkit Archive. - Select your operating system, system architecture, and os version. - Download and install the software.

    2. Install NVIDIA cuDNN:

      For example, to install cuDNN 8.7.0 for CUDA 11.x please - Visit NVIDIA cuDNN Archive. - Click on \"Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x\". - Download and install the software.

    3. Install ffmpeg:

      You can download an installer for your OS from the ffmpeg Website.

      Or use a package manager:

      • On Ubuntu or Debian: sudo apt update && sudo apt install ffmpeg

      • On Arch Linux: sudo pacman -S ffmpeg

      • On MacOS using Homebrew (https://brew.sh/): brew install ffmpeg

      • On Windows using Chocolatey (https://chocolatey.org/): choco install ffmpeg

      • On Windows using Scoop (https://scoop.sh/): scoop install ffmpeg

    4. Install PyTorch with CUDA support:

      To upgrade your PyTorch installation to enable GPU support with CUDA, follow these instructions based on your specific CUDA version. This is useful if you wish to enhance the performance of RealtimeSTT with CUDA capabilities.

      • For CUDA 11.8:

        To update PyTorch and Torchaudio to support CUDA 11.8, use the following commands:

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

      • For CUDA 12.X:

        To update PyTorch and Torchaudio to support CUDA 12.X, execute the following:

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

      Replace 2.3.1 with the version of PyTorch that matches your system and requirements.

    5. Fix for to resolve compatibility issues: If you run into library compatibility issues, try setting these libraries to fixed versions:

    ```

    pip install networkx==2.8.8\n\npip install typing_extensions==4.8.0\n\npip install fsspec==2023.6.0\n\npip install imageio==2.31.6\n\npip install networkx==2.8.8\n\npip install numpy==1.24.3\n\npip install requests==2.31.0\n

    ```

    "},{"location":"es/en/usage/","title":"Usage","text":""},{"location":"es/en/usage/#quick-start","title":"Quick Start","text":"

    Here's a basic usage example:

    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine\n\nengine = SystemEngine() # replace with your TTS engine\nstream = TextToAudioStream(engine)\nstream.feed(\"Hello world! How are you today?\")\nstream.play_async()\n
    "},{"location":"es/en/usage/#feed-text","title":"Feed Text","text":"

    You can feed individual strings:

    stream.feed(\"Hello, this is a sentence.\")\n

    Or you can feed generators and character iterators for real-time streaming:

    def write(prompt: str):\n    for chunk in openai.ChatCompletion.create(\n        model=\"gpt-3.5-turbo\",\n        messages=[{\"role\": \"user\", \"content\" : prompt}],\n        stream=True\n    ):\n        if (text_chunk := chunk[\"choices\"][0][\"delta\"].get(\"content\")) is not None:\n            yield text_chunk\n\ntext_stream = write(\"A three-sentence relaxing speech.\")\n\nstream.feed(text_stream)\n
    char_iterator = iter(\"Streaming this character by character.\")\nstream.feed(char_iterator)\n
    "},{"location":"es/en/usage/#playback","title":"Playback","text":"

    Asynchronously:

    stream.play_async()\nwhile stream.is_playing():\n    time.sleep(0.1)\n

    Synchronously:

    stream.play()\n
    "},{"location":"es/en/usage/#testing-the-library","title":"Testing the Library","text":"

    The test subdirectory contains a set of scripts to help you evaluate and understand the capabilities of the RealtimeTTS library.

    Note that most of the tests still rely on the \"old\" OpenAI API (<1.0.0). Usage of the new OpenAI API is demonstrated in openai_1.0_test.py.

    "},{"location":"es/en/usage/#pause-resume-stop","title":"Pause, Resume & Stop","text":"

    Pause the audio stream:

    stream.pause()\n

    Resume a paused stream:

    stream.resume()\n

    Stop the stream immediately:

    stream.stop()\n
    "},{"location":"es/en/usage/#requirements-explained","title":"Requirements Explained","text":"

    Shoutout to Idiap Research Institute for maintaining a fork of coqui tts.

    "},{"location":"es/es/","title":"RealtimeTTS","text":"

    EN | FR | ES

    *Biblioteca de conversi\u00f3n de texto en voz f\u00e1cil de usar y de baja latencia para aplicaciones en tiempo real.

    "},{"location":"es/es/#acerca-del-proyecto","title":"Acerca del proyecto","text":"

    RealtimeTTS es una biblioteca de texto a voz (TTS) de \u00faltima generaci\u00f3n dise\u00f1ada para aplicaciones en tiempo real. Destaca por su capacidad para convertir r\u00e1pidamente flujos de texto en salida auditiva de alta calidad con una latencia m\u00ednima.

    "},{"location":"es/es/#caracteristicas-principales","title":"Caracter\u00edsticas principales","text":"

    Para obtener instrucciones de instalaci\u00f3n, ejemplos de uso y referencias de la API, navegue por la documentaci\u00f3n utilizando la barra lateral.

    "},{"location":"es/es/api/","title":"TextToAudioStream - Documentaci\u00f3n en Espa\u00f1ol","text":""},{"location":"es/es/api/#configuracion","title":"Configuraci\u00f3n","text":""},{"location":"es/es/api/#parametros-de-inicializacion-para-texttoaudiostream","title":"Par\u00e1metros de Inicializaci\u00f3n para TextToAudioStream","text":"

    Cuando inicializa la clase TextToAudioStream, tiene varias opciones para personalizar su comportamiento. Aqu\u00ed est\u00e1n los par\u00e1metros disponibles:

    "},{"location":"es/es/api/#parametros-principales","title":"Par\u00e1metros Principales","text":""},{"location":"es/es/api/#engine-baseengine","title":"engine (BaseEngine)","text":""},{"location":"es/es/api/#on_text_stream_start-callable","title":"on_text_stream_start (callable)","text":""},{"location":"es/es/api/#on_text_stream_stop-callable","title":"on_text_stream_stop (callable)","text":""},{"location":"es/es/api/#on_audio_stream_start-callable","title":"on_audio_stream_start (callable)","text":""},{"location":"es/es/api/#on_audio_stream_stop-callable","title":"on_audio_stream_stop (callable)","text":""},{"location":"es/es/api/#on_character-callable","title":"on_character (callable)","text":""},{"location":"es/es/api/#output_device_index-int","title":"output_device_index (int)","text":""},{"location":"es/es/api/#tokenizer-string","title":"tokenizer (string)","text":""},{"location":"es/es/api/#language-string","title":"language (string)","text":""},{"location":"es/es/api/#muted-bool","title":"muted (bool)","text":""},{"location":"es/es/api/#level-int","title":"level (int)","text":""},{"location":"es/es/api/#ejemplo-de-uso","title":"Ejemplo de Uso","text":"
    engine = YourEngine()  # Sustituya con su motor\nstream = TextToAudioStream(\n    engine=engine,\n    on_text_stream_start=my_text_start_func,\n    on_text_stream_stop=my_text_stop_func,\n    on_audio_stream_start=my_audio_start_func,\n    on_audio_stream_stop=my_audio_stop_func,\n    level=logging.INFO\n)\n
    "},{"location":"es/es/api/#metodos","title":"M\u00e9todos","text":""},{"location":"es/es/api/#play-y-play_async","title":"play y play_async","text":"

    Estos m\u00e9todos son responsables de ejecutar la s\u00edntesis de texto a audio y reproducir el flujo de audio. La diferencia es que play es una funci\u00f3n bloqueante, mientras que play_async se ejecuta en un hilo separado, permitiendo que otras operaciones contin\u00faen.

    "},{"location":"es/es/api/#parametros-de-reproduccion","title":"Par\u00e1metros de Reproducci\u00f3n","text":""},{"location":"es/es/api/#fast_sentence_fragment-bool","title":"fast_sentence_fragment (bool)","text":""},{"location":"es/es/api/#fast_sentence_fragment_allsentences-bool","title":"fast_sentence_fragment_allsentences (bool)","text":""},{"location":"es/es/api/#fast_sentence_fragment_allsentences_multiple-bool","title":"fast_sentence_fragment_allsentences_multiple (bool)","text":""},{"location":"es/es/api/#buffer_threshold_seconds-float","title":"buffer_threshold_seconds (float)","text":"

    C\u00f3mo funciona: Antes de sintetizar una nueva oraci\u00f3n, el sistema verifica si queda m\u00e1s material de audio en el b\u00fafer que el tiempo especificado. Un valor m\u00e1s alto asegura que haya m\u00e1s audio pre-almacenado en el b\u00fafer.

    "},{"location":"es/es/api/#minimum_sentence_length-int","title":"minimum_sentence_length (int)","text":""},{"location":"es/es/api/#minimum_first_fragment_length-int","title":"minimum_first_fragment_length (int)","text":""},{"location":"es/es/api/#log_synthesized_text-bool","title":"log_synthesized_text (bool)","text":""},{"location":"es/es/api/#reset_generated_text-bool","title":"reset_generated_text (bool)","text":""},{"location":"es/es/api/#output_wavfile-str","title":"output_wavfile (str)","text":""},{"location":"es/es/api/#funciones-de-callback","title":"Funciones de Callback","text":""},{"location":"es/es/api/#on_sentence_synthesized-callable","title":"on_sentence_synthesized (callable)","text":""},{"location":"es/es/api/#before_sentence_synthesized-callable","title":"before_sentence_synthesized (callable)","text":""},{"location":"es/es/api/#on_audio_chunk-callable","title":"on_audio_chunk (callable)","text":""},{"location":"es/es/api/#configuracion-de-tokenizacion","title":"Configuraci\u00f3n de Tokenizaci\u00f3n","text":""},{"location":"es/es/api/#tokenizer-str","title":"tokenizer (str)","text":""},{"location":"es/es/api/#tokenize_sentences-callable","title":"tokenize_sentences (callable)","text":""},{"location":"es/es/api/#language-str","title":"language (str)","text":""},{"location":"es/es/api/#parametros-de-contexto","title":"Par\u00e1metros de Contexto","text":""},{"location":"es/es/api/#context_size-int","title":"context_size (int)","text":""},{"location":"es/es/api/#context_size_look_overhead-int","title":"context_size_look_overhead (int)","text":""},{"location":"es/es/api/#otros-parametros","title":"Otros Par\u00e1metros","text":""},{"location":"es/es/api/#muted-bool_1","title":"muted (bool)","text":""},{"location":"es/es/api/#sentence_fragment_delimiters-str","title":"sentence_fragment_delimiters (str)","text":""},{"location":"es/es/api/#force_first_fragment_after_words-int","title":"force_first_fragment_after_words (int)","text":""},{"location":"es/es/contributing/","title":"Contribuir a RealtimeTTS","text":"

    Agradecemos cualquier contribuci\u00f3n a RealtimeTTS. Aqu\u00ed tienes algunas formas de contribuir:

    1. Informar de errores: Si encuentras un error, por favor abre una incidencia en nuestro repositorio GitHub.

    2. Sugerir mejoras: \u00bfTienes ideas para nuevas funciones o mejoras? Nos encantar\u00eda escucharlas. Abre una incidencia para sugerir mejoras.

    3. Contribuciones de c\u00f3digo: \u00bfQuieres a\u00f1adir una nueva funci\u00f3n o corregir un error? \u00a1Perfecto! Sigue estos pasos:

    4. Abre el repositorio
    5. Crea una nueva rama para tu funci\u00f3n
    6. Realice los cambios
    7. Env\u00eda un pull request con una descripci\u00f3n clara de tus cambios

    8. Documentaci\u00f3n: Ay\u00fadanos a mejorar nuestra documentaci\u00f3n corrigiendo erratas, a\u00f1adiendo ejemplos o aclarando secciones confusas.

    9. A\u00f1adir nuevos motores: Si quieres a\u00f1adir soporte para un nuevo motor TTS, por favor abre una incidencia primero para discutir la implementaci\u00f3n.

    Gracias por ayudarnos a mejorar RealtimeTTS.

    "},{"location":"es/es/faq/","title":"Preguntas frecuentes","text":"

    Para obtener respuestas a las preguntas m\u00e1s frecuentes sobre RealtimeTTS, consulta nuestra p\u00e1gina de preguntas frecuentes en GitHub.

    Esta p\u00e1gina cubre varios temas, entre ellos

    Para obtener informaci\u00f3n m\u00e1s detallada, visite el enlace anterior.

    "},{"location":"es/es/installation/","title":"Espa\u00f1ol","text":"

    Nota: Ya no se recomienda la instalaci\u00f3n b\u00e1sica con pip install realtimetts, use pip install realtimetts[all] en su lugar.

    La biblioteca RealtimeTTS proporciona opciones de instalaci\u00f3n para varias dependencias seg\u00fan su caso de uso. Aqu\u00ed est\u00e1n las diferentes formas en que puede instalar RealtimeTTS seg\u00fan sus necesidades:

    "},{"location":"es/es/installation/#instalacion-completa","title":"Instalaci\u00f3n Completa","text":"

    Para instalar RealtimeTTS con soporte para todos los motores de TTS:

    pip install -U realtimetts[all]\n
    "},{"location":"es/es/installation/#instalacion-personalizada","title":"Instalaci\u00f3n Personalizada","text":"

    RealtimeTTS permite una instalaci\u00f3n personalizada con instalaciones m\u00ednimas de bibliotecas. Estas son las opciones disponibles: - all: Instalaci\u00f3n completa con todos los motores soportados. - system: Incluye capacidades de TTS espec\u00edficas del sistema (por ejemplo, pyttsx3). - azure: Agrega soporte para Azure Cognitive Services Speech. - elevenlabs: Incluye integraci\u00f3n con la API de ElevenLabs. - openai: Para servicios de voz de OpenAI. - gtts: Soporte para Google Text-to-Speech. - coqui: Instala el motor Coqui TTS. - minimal: Instala solo los requisitos base sin motor (solo necesario si desea desarrollar un motor propio)

    Por ejemplo, si desea instalar RealtimeTTS solo para uso local de Coqui TTS neuronal, debe usar:

    pip install realtimetts[coqui]\n

    Si desea instalar RealtimeTTS solo con Azure Cognitive Services Speech, ElevenLabs y soporte de OpenAI:

    pip install realtimetts[azure,elevenlabs,openai]\n
    "},{"location":"es/es/installation/#instalacion-en-entorno-virtual","title":"Instalaci\u00f3n en Entorno Virtual","text":"

    Para aquellos que deseen realizar una instalaci\u00f3n completa dentro de un entorno virtual, sigan estos pasos:

    python -m venv env_realtimetts\nenv_realtimetts\\Scripts\\activate.bat\npython.exe -m pip install --upgrade pip\npip install -U realtimetts[all]\n

    M\u00e1s informaci\u00f3n sobre instalaci\u00f3n de CUDA.

    "},{"location":"es/es/installation/#requisitos-de-los-motores","title":"Requisitos de los Motores","text":"

    Los diferentes motores soportados por RealtimeTTS tienen requisitos \u00fanicos. Aseg\u00farese de cumplir con estos requisitos seg\u00fan el motor que elija.

    "},{"location":"es/es/installation/#systemengine","title":"SystemEngine","text":"

    El SystemEngine funciona de inmediato con las capacidades de TTS incorporadas en su sistema. No se necesita configuraci\u00f3n adicional.

    "},{"location":"es/es/installation/#gttsengine","title":"GTTSEngine","text":"

    El GTTSEngine funciona de inmediato usando la API de texto a voz de Google Translate. No se necesita configuraci\u00f3n adicional.

    "},{"location":"es/es/installation/#openaiengine","title":"OpenAIEngine","text":"

    Para usar el OpenAIEngine: - configure la variable de entorno OPENAI_API_KEY - instale ffmpeg (ver instalaci\u00f3n de CUDA punto 3)

    "},{"location":"es/es/installation/#azureengine","title":"AzureEngine","text":"

    Para usar el AzureEngine, necesitar\u00e1: - Clave API de Microsoft Azure Text-to-Speech (proporcionada a trav\u00e9s del par\u00e1metro \"speech_key\" del constructor AzureEngine o en la variable de entorno AZURE_SPEECH_KEY) - Regi\u00f3n de servicio de Microsoft Azure.

    Aseg\u00farese de tener estas credenciales disponibles y correctamente configuradas al inicializar el AzureEngine.

    "},{"location":"es/es/installation/#elevenlabsengine","title":"ElevenlabsEngine","text":"

    Para el ElevenlabsEngine, necesita: - Clave API de Elevenlabs (proporcionada a trav\u00e9s del par\u00e1metro \"api_key\" del constructor ElevenlabsEngine o en la variable de entorno ELEVENLABS_API_KEY) - mpv instalado en su sistema (esencial para transmitir audio mpeg, Elevenlabs solo entrega mpeg).

    \ud83d\udd39 Instalaci\u00f3n de mpv: - macOS: brew install mpv

    "},{"location":"es/es/installation/#coquiengine","title":"CoquiEngine","text":"

    Proporciona TTS neuronal local de alta calidad con clonaci\u00f3n de voz.

    Descarga primero un modelo neuronal TTS. En la mayor\u00eda de los casos, ser\u00e1 lo suficientemente r\u00e1pido para tiempo real usando s\u00edntesis GPU. Necesita alrededor de 4-5 GB de VRAM.

    En la mayor\u00eda de los sistemas, se necesitar\u00e1 soporte de GPU para ejecutarse lo suficientemente r\u00e1pido en tiempo real, de lo contrario experimentar\u00e1 tartamudeo.

    "},{"location":"es/es/installation/#instalacion-de-cuda","title":"Instalaci\u00f3n de CUDA","text":"

    Estos pasos son recomendados para aquellos que requieren mejor rendimiento y tienen una GPU NVIDIA compatible.

    Nota: para verificar si su GPU NVIDIA es compatible con CUDA, visite la lista oficial de GPUs CUDA.

    Para usar torch con soporte v\u00eda CUDA, siga estos pasos:

    Nota: las instalaciones m\u00e1s nuevas de pytorch pueden (no verificado) no necesitar la instalaci\u00f3n de Toolkit (y posiblemente cuDNN).

    1. Instalar NVIDIA CUDA Toolkit: Por ejemplo, para instalar Toolkit 12.X, por favor

      • Visite NVIDIA CUDA Downloads.
      • Seleccione su sistema operativo, arquitectura del sistema y versi\u00f3n del sistema operativo.
      • Descargue e instale el software.

      o para instalar Toolkit 11.8, por favor - Visite NVIDIA CUDA Toolkit Archive. - Seleccione su sistema operativo, arquitectura del sistema y versi\u00f3n del sistema operativo. - Descargue e instale el software.

    2. Instalar NVIDIA cuDNN:

      Por ejemplo, para instalar cuDNN 8.7.0 para CUDA 11.x por favor - Visite NVIDIA cuDNN Archive. - Haga clic en \"Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x\". - Descargue e instale el software.

    3. Instalar ffmpeg:

      Puede descargar un instalador para su sistema operativo desde el sitio web de ffmpeg.

      O usar un gestor de paquetes:

      • En Ubuntu o Debian: sudo apt update && sudo apt install ffmpeg

      • En Arch Linux: sudo pacman -S ffmpeg

      • En MacOS usando Homebrew (https://brew.sh/): brew install ffmpeg

      • En Windows usando Chocolatey (https://chocolatey.org/): choco install ffmpeg

      • En Windows usando Scoop (https://scoop.sh/): scoop install ffmpeg

    4. Instalar PyTorch con soporte CUDA:

      Para actualizar su instalaci\u00f3n de PyTorch y habilitar el soporte de GPU con CUDA, siga estas instrucciones seg\u00fan su versi\u00f3n espec\u00edfica de CUDA. Esto es \u00fatil si desea mejorar el rendimiento de RealtimeSTT con capacidades CUDA.

      • Para CUDA 11.8:

        Para actualizar PyTorch y Torchaudio para soportar CUDA 11.8, use los siguientes comandos:

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

      • Para CUDA 12.X:

        Para actualizar PyTorch y Torchaudio para soportar CUDA 12.X, ejecute lo siguiente:

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

      Reemplace 2.3.1 con la versi\u00f3n de PyTorch que coincida con su sistema y requisitos.

    5. Soluci\u00f3n para resolver problemas de compatibilidad: Si encuentra problemas de compatibilidad de bibliotecas, intente establecer estas bibliotecas en versiones fijas:

      pip install networkx==2.8.8 pip install typing_extensions==4.8.0 pip install fsspec==2023.6.0 pip install imageio==2.31.6 pip install networkx==2.8.8 pip install numpy==1.24.3 pip install requests==2.31.0

    "},{"location":"es/es/usage/","title":"Uso","text":""},{"location":"es/es/usage/#inicio-rapido","title":"Inicio R\u00e1pido","text":"

    Aqu\u00ed hay un ejemplo b\u00e1sico de uso:

    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine\n\nengine = SystemEngine() # replace with your TTS engine\nstream = TextToAudioStream(engine)\nstream.feed(\"Hello world! How are you today?\")\nstream.play_async()\n
    "},{"location":"es/es/usage/#alimentar-texto","title":"Alimentar Texto","text":"

    Puede alimentar cadenas individuales:

    stream.feed(\"Hello, this is a sentence.\")\n

    O puede alimentar generadores e iteradores de caracteres para la transmisi\u00f3n en tiempo real:

    def write(prompt: str):\n    for chunk in openai.ChatCompletion.create(\n        model=\"gpt-3.5-turbo\",\n        messages=[{\"role\": \"user\", \"content\" : prompt}],\n        stream=True\n    ):\n        if (text_chunk := chunk[\"choices\"][0][\"delta\"].get(\"content\")) is not None:\n            yield text_chunk\n\ntext_stream = write(\"A three-sentence relaxing speech.\")\n\nstream.feed(text_stream)\n
    char_iterator = iter(\"Streaming this character by character.\")\nstream.feed(char_iterator)\n
    "},{"location":"es/es/usage/#reproduccion","title":"Reproducci\u00f3n","text":"

    De forma as\u00edncrona:

    stream.play_async()\nwhile stream.is_playing():\n    time.sleep(0.1)\n

    De forma s\u00edncrona:

    stream.play()\n
    "},{"location":"es/es/usage/#prueba-de-la-biblioteca","title":"Prueba de la Biblioteca","text":"

    El subdirectorio de pruebas contiene un conjunto de scripts para ayudarte a evaluar y comprender las capacidades de la biblioteca RealtimeTTS.

    Ten en cuenta que la mayor\u00eda de las pruebas a\u00fan dependen de la API \"antigua\" de OpenAI (<1.0.0). El uso de la nueva API de OpenAI se demuestra en openai_1.0_test.py.

    "},{"location":"es/es/usage/#pausar-reanudar-y-detener","title":"Pausar, Reanudar y Detener","text":"

    Pausar el flujo de audio:

    stream.pause()\n

    Reanudar un flujo pausado:

    stream.resume()\n

    Detener el flujo inmediatamente:

    stream.stop()\n
    "},{"location":"es/es/usage/#requisitos-explicados","title":"Requisitos Explicados","text":"

    Agradecimiento especial al Instituto de Investigaci\u00f3n Idiap por mantener un fork de coqui tts.

    "},{"location":"es/fr/","title":"RealtimeTTS","text":"

    EN | FR | ES

    Biblioth\u00e8que de synth\u00e8se vocale \u00e0 faible latence et facile \u00e0 utiliser pour les applications en temps r\u00e9el

    "},{"location":"es/fr/#a-propos-du-projet","title":"\u00c0 propos du projet","text":"

    RealtimeTTS est une biblioth\u00e8que de synth\u00e8se vocale (TTS) de pointe con\u00e7ue pour les applications en temps r\u00e9el. Elle se distingue par sa capacit\u00e9 \u00e0 convertir des flux de texte en sortie auditive de haute qualit\u00e9 avec une latence minimale.

    "},{"location":"es/fr/#caracteristiques-cles","title":"Caract\u00e9ristiques cl\u00e9s","text":"

    Pour les instructions d'installation, les exemples d'utilisation et la r\u00e9f\u00e9rence de l'API, veuillez naviguer \u00e0 travers la documentation \u00e0 l'aide du sidebar.

    "},{"location":"es/fr/api/","title":"Fran\u00e7ais","text":""},{"location":"es/fr/api/#configuration","title":"Configuration","text":""},{"location":"es/fr/api/#parametres-dinitialisation-pour-texttoaudiostream","title":"Param\u00e8tres d'initialisation pour `TextToAudioStream","text":"

    Lorsque vous initialisez la classe TextToAudioStream, vous disposez de diverses options pour personnaliser son comportement. Voici les param\u00e8tres disponibles :

    "},{"location":"es/fr/api/#baseengine","title":"`(BaseEngine)","text":""},{"location":"es/fr/api/#_text_stream_start-appelable","title":"_text_stream_start (appelable)","text":""},{"location":"es/fr/api/#_text_stream_stop-appelable","title":"_text_stream_stop (appelable)","text":""},{"location":"es/fr/api/#_audio_stream_start-appelable","title":"_audio_stream_start` (appelable)","text":""},{"location":"es/fr/api/#_audio_stream_stop-appelable","title":"_audio_stream_stop (appelable)","text":""},{"location":"es/fr/api/#on_character-appelable","title":"on_character` (appelable)","text":""},{"location":"es/fr/api/#_device_index-int","title":"_device_index (int)","text":""},{"location":"es/fr/api/#tokenizerchaine","title":"(tokenizer(cha\u00eene)","text":""},{"location":"es/fr/api/#languagechaine","title":"`language(cha\u00eene)","text":""},{"location":"es/fr/api/#mutedbool","title":"muted(bool)","text":""},{"location":"es/fr/api/#level-int","title":"level (int)","text":""},{"location":"es/fr/api/#exemple-dutilisation","title":"Exemple d'utilisation :","text":"

    ``(`python moteur = YourEngine () # Remplacez-vous par votre moteur flux = TextToAudioStream( moteur=engine, on_text_stream_start=my_text_start_func, on_text_stream_stop=my_text_stop_func, on_audio_stream_start=my_audio_start_func, on_audio_stream_stop=my_audio_stop_func, niveau=logging.INFO )

    "},{"location":"es/fr/api/#methodes","title":"M\u00e9thodes","text":""},{"location":"es/fr/api/#play-etplay_async","title":"play etplay_async`","text":"

    Ces m\u00e9thodes sont responsables de l'ex\u00e9cution de la synth\u00e8se texte-audio et de la lecture du flux audio. La diff\u00e9rence est que play est une fonction de blocage, tandis que play_async s'ex\u00e9cute dans un thread s\u00e9par\u00e9, permettant \u00e0 d'autres op\u00e9rations de se poursuivre.

    "},{"location":"es/fr/api/#parametres","title":"Param\u00e8tres :","text":""},{"location":"es/fr/api/#fast_sentence_fragment-bool","title":"fast_sentence_fragment (bool)","text":""},{"location":"es/fr/api/#fast_sentence_fragment_allsentencesbool","title":"fast_sentence_fragment_allsentences(bool)","text":""},{"location":"es/fr/api/#fast_sentence_fragment_allsentences_multiple-bool","title":"fast_sentence_fragment_allsentences_multiple (bool)","text":""},{"location":"es/fr/api/#_threshold_seconds-flotteur","title":"_threshold_seconds (flotteur)","text":"

    Une valeur plus \u00e9lev\u00e9e garantit qu'il y a plus d'audio pr\u00e9-tamponn\u00e9, r\u00e9duisant ainsi le risque de silence ou de lacunes pendant la lecture. Si vous rencontrez des pauses ou des pauses, envisagez d'augmenter cette valeur.

    "},{"location":"es/fr/api/#_sentence_length-int","title":"_sentence_length (int)","text":""},{"location":"es/fr/api/#_first_fragment_lengthint","title":"_first_fragment_length(int)","text":""},{"location":"es/fr/api/#_synthesized_text-bool","title":"_synthesized_text (bool)","text":""},{"location":"es/fr/api/#reset_generated_text-bool","title":"#reset_generated_text` (bool)","text":""},{"location":"es/fr/api/#_wavfile-str","title":"_wavfile (str)","text":""},{"location":"es/fr/api/#_sentence_synthesized-appelable","title":"`_sentence_synthesized (appelable)","text":""},{"location":"es/fr/api/#before_sentence_synthesized-appelable","title":"before`_sentence_synthesized (appelable)","text":""},{"location":"es/fr/api/#_audio_chunk-appelable","title":"_audio_chunk (appelable)","text":""},{"location":"es/fr/api/#str","title":"```(str)","text":""},{"location":"es/fr/api/#_sentences-appelable","title":"_sentences (appelable)","text":""},{"location":"es/fr/api/#angustr","title":"angu(str)","text":""},{"location":"es/fr/api/#_sizeint","title":"_size(int)","text":""},{"location":"es/fr/api/#_size_look_overhead-int","title":"_size_look_overhead (int)","text":""},{"location":"es/fr/api/#mute-bool","title":"mute (bool)","text":""},{"location":"es/fr/api/#ence_fragment_delimiters-str","title":"ence_fragment_delimiters (str)","text":""},{"location":"es/fr/api/#_first_fragment_after_words-int","title":"_first_fragment_after_words (int)","text":""},{"location":"es/fr/contributing/","title":"Contribuer \u00e0 RealtimeTTS","text":"

    Nous accueillons les contributions \u00e0 RealtimeTTS ! Voici quelques fa\u00e7ons dont vous pouvez contribuer :

    1. Reporting Bugs : Si vous trouvez un bug, veuillez ouvrir un probl\u00e8me sur notre r\u00e9f\u00e9rentiel GitHub.

    2. ** Suggestion d'am\u00e9liorations** : Vous avez des id\u00e9es de nouvelles fonctionnalit\u00e9s ou d'am\u00e9liorations ? Nous serions ravis de les entendre ! Ouvrez un num\u00e9ro pour sugg\u00e9rer des am\u00e9liorations.

    3. Code Contributions : Vous voulez ajouter une nouvelle fonctionnalit\u00e9 ou corriger un bug ? Super ! Veuillez suivre ces \u00e9tapes :

    4. Fourcher le d\u00e9p\u00f4t
    5. Cr\u00e9ez une nouvelle branche pour votre fonctionnalit\u00e9
    6. Faites vos changements
    7. Soumettez une demande pull avec une description claire de vos modifications

    8. Documentation : Aidez-nous \u00e0 am\u00e9liorer notre documentation en corrigeant les fautes de frappe, en ajoutant des exemples ou en clarifiant les sections d\u00e9routantes.

    9. Ajout de nouveaux moteurs : Si vous souhaitez ajouter la prise en charge d'un nouveau moteur TTS, veuillez d'abord ouvrir un num\u00e9ro pour discuter de l'impl\u00e9mentation.

    Merci d'avoir contribu\u00e9 \u00e0 rendre RealtimeTTS meilleur !

    "},{"location":"es/fr/faq/","title":"Foire aux questions","text":"

    Pour les r\u00e9ponses aux questions fr\u00e9quemment pos\u00e9es sur RealtimeTTS, veuillez vous r\u00e9f\u00e9rer \u00e0 notre page FAQ sur GitHub.

    Cette page couvre divers sujets dont

    Pour des informations plus d\u00e9taill\u00e9es, veuillez consulter le lien ci-dessus.

    "},{"location":"es/fr/installation/","title":"Fran\u00e7ais","text":"

    Remarque: Installation de base avec pip install realtimettss n'est plus recommand\u00e9, utilisez pip install realtimetts[all] \u00e0 la place.

    La biblioth\u00e8que RealtimeTTS offre des options d'installation pour diverses d\u00e9pendances pour votre cas d'utilisation. Voici les diff\u00e9rentes fa\u00e7ons dont vous pouvez installer RealtimeTTS en fonction de vos besoins :

    "},{"location":"es/fr/installation/#installation-complete","title":"Installation compl\u00e8te","text":"

    Pour installer RealtimeTTS avec prise en charge de tous les moteurs TTS :

    pip install -U realtimetts [tous]

    "},{"location":"es/fr/installation/#installation-personnalisee","title":"Installation personnalis\u00e9e","text":"

    RealtimeTTS permet une installation personnalis\u00e9e avec un minimum d'installations de biblioth\u00e8que. Voici les options disponibles : - all : Installation compl\u00e8te avec chaque moteur pris en charge. - ** syst\u00e8me : Inclut les capacit\u00e9s TTS sp\u00e9cifiques au syst\u00e8me (par exemple, pyttsx3). - azure : ajoute le support vocal Azure Cognitive Services. - elevenlabs : Comprend l'int\u00e9gration avec l'API ElevenLabs. - openai : Pour les services vocaux OpenAI. - gtts : Prise en charge de Google Text-to-Speech. - coqui : Installe le moteur Coqui TTS. - minimal** : installe uniquement les exigences de base sans moteur (n\u00e9cessaire uniquement si vous souhaitez d\u00e9velopper votre propre moteur)

    Supposons que vous souhaitiez installer RealtimeTTS uniquement pour l'utilisation neuronale locale de Coqui TTS, vous devez alors utiliser :

    pip installez realtimetts [coqui]

    Par exemple, si vous souhaitez installer RealtimeTTS avec uniquement Azure Cognitive Services Speech, ElevenLabs et la prise en charge d'OpenAI :

    pip installez realtimetts[azure,elevenlabs,openai]

    "},{"location":"es/fr/installation/#installation-de-lenvironnement-virtuel","title":"Installation de l'environnement virtuel","text":"

    Pour ceux qui souhaitent effectuer une installation compl\u00e8te dans un environnement virtuel, proc\u00e9dez comme suit

    python - m venv env_realtimetts env_realtimetts\\Scripts\\activate.bat python.exe - m pip install - upgrade pip pip install -U realtimetts [tous]

    Plus d'informations sur installation CUDA.

    "},{"location":"es/fr/installation/#exigences-du-moteur","title":"Exigences du moteur","text":"

    Diff\u00e9rents moteurs pris en charge par RealtimeTTS ont des exigences uniques. Assurez-vous de remplir ces exigences en fonction du moteur que vous choisissez.

    "},{"location":"es/fr/installation/#moteur-systeme","title":"Moteur syst\u00e8me","text":"

    Le `SystemEngine fonctionne d\u00e8s le d\u00e9part avec les capacit\u00e9s TTS int\u00e9gr\u00e9es de votre syst\u00e8me. Aucune configuration suppl\u00e9mentaire n'est n\u00e9cessaire.

    "},{"location":"es/fr/installation/#gttsengine","title":"GTTSEngine","text":"

    Le GTTSEngine fonctionne d\u00e8s le d\u00e9part \u00e0 l'aide de l'API de synth\u00e8se vocale de Google Translate. Aucune configuration suppl\u00e9mentaire n'est n\u00e9cessaire.

    "},{"location":"es/fr/installation/#openaiengine","title":"OpenAIEngine","text":"

    Pour utiliser le ``(OpenAIE): - d\u00e9finir la variable d'environnement OPENAI_API_KEY - installer ffmpeg (voir installation CUDA point 3)

    "},{"location":"es/fr/installation/#azureengine","title":"AzureEngine","text":"

    Pour utiliser le ine, vous aurez besoin de : - Cl\u00e9 API Microsoft Azure Text-to-Speech (fournie via le param\u00e8tre constructeur AzureEngine \u00ab speech_key \u00bb ou dans la variable d'environnement AZURE_SPEECH_KEY) - R\u00e9gion de service Microsoft Azure.

    Assurez-vous d'avoir ces informations d'identification disponibles et correctement configur\u00e9es lors de l'initialisation du AzureEngine.

    "},{"location":"es/fr/installation/#elevenlabsengine","title":"ElevenlabsEngine","text":"

    Pour le ElevenlabsEngine, vous avez besoin de: - Cl\u00e9 API Elevenlabs (fournie via le param\u00e8tre constructeur ElevenlabsEngine \u00ab api_key \u00bb ou dans la variable d'environnement ELEVENLABS_API_KEY) - mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne d\u00e9livre que mpeg).

    "},{"location":"es/fr/installation/#elevenlabsengine_1","title":"ElevenlabsEngine","text":"

    Pour le ElevenlabsEngine, vous avez besoin de: - Cl\u00e9 API Elevenlabs (fournie via le param\u00e8tre constructeur ElevenlabsEngine \u00ab api_key \u00bb ou dans la variable d'environnement ELEVENLABS_API_KEY) - mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne d\u00e9livre que mpeg).

    \ud83d\udd39 Installation v: - macOS: infuser installer mpv

    "},{"location":"es/fr/installation/#coquiengine","title":"CoquiEngine","text":"

    Offre un TTS neuronal local de haute qualit\u00e9 avec clonage vocal.

    T\u00e9l\u00e9charge d'abord un mod\u00e8le TTS neuronal. Dans la plupart des cas, il est suffisamment rapide pour le temps r\u00e9el utilisant la synth\u00e8se GPU. N\u00e9cessite environ 4 \u00e0 5 Go de VRAM.

    Sur la plupart des syst\u00e8mes, la prise en charge du GPU sera n\u00e9cessaire pour fonctionner suffisamment rapidement en temps r\u00e9el, sinon vous ferez l'exp\u00e9rience du b\u00e9gaiement.

    "},{"location":"es/fr/installation/#installation-cuda","title":"Installation CUDA","text":"

    Ces \u00e9tapes sont recommand\u00e9es pour ceux qui ont besoin de ** meilleures performances ** et disposent d'un GPU NVIDIA compatible.

    Remarque : pour v\u00e9rifier si votre GPU NVIDIA prend en charge CUDA, visitez la liste officielle des GPU CUDA.

    Pour utiliser une torche avec support via CUDA, veuillez suivre ces \u00e9tapes :

    Remarque : les installations de pythorque plus r\u00e9centes peuvent (non v\u00e9rifi\u00e9) n'ont plus besoin d'installation de Toolkit (et \u00e9ventuellement de cuDNN).

    1. Installer NVIDIA CUDA Toolkit: Par exemple, pour installer Toolkit 12.X, s'il te pla\u00eet

      • Visitez NVIDIA CUDA T\u00e9l\u00e9chargements.
      • S\u00e9lectionnez votre syst\u00e8me d'exploitation, votre architecture syst\u00e8me et votre version os.
      • T\u00e9l\u00e9chargez et installez le logiciel.

      ou pour installer Toolkit 11.8, s'il vous pla\u00eet - Visitez Archive de la bo\u00eete \u00e0 outils CUDA NVIDIA. - S\u00e9lectionnez votre syst\u00e8me d'exploitation, votre architecture syst\u00e8me et votre version os. - T\u00e9l\u00e9chargez et installez le logiciel.

    2. Installer NVIDIA cuDNN:

      Par exemple, pour installer cuDNN 8.7.0 pour CUDA 11. x s'il vous pla\u00eet - Visitez NVIDIA cuDNN Archive. - Cliquez sur \u00ab T\u00e9l\u00e9charger cuDNN v8.7.0 (28 novembre 2022), pour CUDA 11.x \u00bb. - T\u00e9l\u00e9chargez et installez le logiciel.

    3. Installer ffmpeg:

      Vous pouvez t\u00e9l\u00e9charger un programme d'installation pour votre syst\u00e8me d'exploitation \u00e0 partir du site Web deffmpeg.

      Ou utilisez un gestionnaire de packages :

      • Sur Ubuntu ou Debian: sudo apt update & & sudo apt install ffmpeg

      • Sur Arch Linux: sudo pacman -S ffmpeg

      • Sur MacOS utilisant Homebrew (https://brew.sh/): infuser installer ffmpeg

      • Sur Windows utilisant Chocolatey (https://chocolatey.org/): choco installer ffmpeg

      • Sur Windows utilisant Scoop (https://scoop.sh/): scoop installer ffmpeg

    4. Installez PyTorch avec le support CUDA :

      Pour mettre \u00e0 niveau votre installation PyTorch afin d'activer le support GPU avec CUDA, suivez ces instructions en fonction de votre version CUDA sp\u00e9cifique. Ceci est utile si vous souhaitez am\u00e9liorer les performances de RealtimeSTT avec les capacit\u00e9s CUDA.

      • Pour CUDA 11.8:

        Pour mettre \u00e0 jour PyTorch et Torchaudio afin de prendre en charge CUDA 11.8, utilisez les commandes suivantes :

        pip installe torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

      • Pour CUDA 12.X:

        Pour mettre \u00e0 jour PyTorch et Torchaudio pour prendre en charge CUDA 12.X, ex\u00e9cutez ce qui suit :

        pip installe torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

      Remplacer ` of PyTorch that matching your system and requirements.

    5. ** Correction pour r\u00e9soudre les probl\u00e8mes de compatibilit\u00e9** : Si vous rencontrez des probl\u00e8mes de compatibilit\u00e9 de biblioth\u00e8que, essayez de d\u00e9finir ces biblioth\u00e8ques sur des versions fixes :

    ```

    pip install networkx==2.8.8\n\npip install typing_extensions==4.8.0\n\npip install fsspec==2023.6.0\n\npip install imageio==2.31.6\n\npip install networkx==2.8.8\n\npip install numpy==1.24.3\n\npip install requests==2.31.0\n

    ```

    "},{"location":"es/fr/usage/","title":"Utilisation","text":""},{"location":"es/fr/usage/#demarrage-rapide","title":"D\u00e9marrage rapide","text":"

    Voici un exemple d'utilisation de base :

    ```(python depuis RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine

    moteur = SystemEngine () # remplacer par votre moteur TTS flux = TextToAudioStream(moteur) stream.feed(\"Bonjour le monde! Comment \u00e7a va aujourd'hui ?\") stream.play_async() ``

    "},{"location":"es/fr/usage/#flux-texte","title":"Flux Texte","text":"

    Vous pouvez alimenter des cha\u00eenes individuelles :

    ``(`python stream.feed(\u00ab Bonjour, c'est une phrase. \u00bb)

    Ou vous pouvez alimenter des g\u00e9n\u00e9rateurs et des it\u00e9rateurs de caract\u00e8res pour le streaming en temps r\u00e9el :

    ```(python def write (prompt : str) : pour chunk en openai.ChatCompletion.create( mod\u00e8le=\"gpt-3.5-turbo\", messages=[{\"role\": \"utilisateur\", \"contenu\" : prompt}], stream=True ): si (text_chunk := chunk[\u00ab choix \u00bb][0][\u00ab delta \u00bb].get(\u00ab contenu \u00bb)) n'est pas Aucun : produire du texte_chunk

    text_stream = write (\u00ab Un discours relaxant en trois phrases \u00bb)

    stream.feed(text_stream) ``

    ``(`python char_iterator = iter (\u00ab Diffusion de ce personnage par personnage \u00bb) stream.feed (char_iterator)

    "},{"location":"es/fr/usage/#layback","title":"Layback","text":"

    Asynchrone:

    ``(`python stream.play_async() pendant que stream.is_playing(): temps.sommeil(0,1)

    Synchronis\u00e9:

    ``(`python stream.play()

    "},{"location":"es/fr/usage/#tester-la-bibliotheque","title":"Tester la biblioth\u00e8que","text":"

    Le sous-r\u00e9pertoire de test contient un ensemble de scripts pour vous aider \u00e0 \u00e9valuer et comprendre les capacit\u00e9s de la biblioth\u00e8que RealtimeTTS.

    Notez que la plupart des tests reposent toujours sur l'\u00ab ancienne \u00bb API OpenAI (<1.0.0). L'utilisation de la nouvelle API OpenAI est d\u00e9montr\u00e9e dans openai_1.0_test.py.

    "},{"location":"es/fr/usage/#mettre-en-pause-reprendre-et-arreter","title":"Mettre en pause, reprendre et arr\u00eater","text":"

    Mettre en pause le flux audio :

    ``(`python stream.pause()

    Reprendre un flux en pause :

    ``(`python stream.reprendre()

    Arr\u00eatez imm\u00e9diatement le flux :

    ``(`python stream.stop()

    "},{"location":"es/fr/usage/#exigences-expliquees","title":"Exigences expliqu\u00e9es","text":"

    Criez \u00e0 Idiap Research Institute pour entretenir une fourche de coqui tts.

    "}]} \ No newline at end of file diff --git a/sitemap.xml b/sitemap.xml index 4b16878..2591935 100755 --- a/sitemap.xml +++ b/sitemap.xml @@ -1,435 +1,7563 @@ + + Nonear/ + 2024-10-29 + daily + + + + + + + + + + + + Nonear/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonear/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonear/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonear/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonear/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/usage/ + 2024-10-29 + daily + + + + + + + + + + Noneen/ - 2024-10-24 + 2024-10-29 daily + + + + + + Noneen/api/ - 2024-10-24 + 2024-10-29 daily + + + + + + Noneen/contributing/ - 2024-10-24 + 2024-10-29 daily + + + + + + Noneen/faq/ - 2024-10-24 + 2024-10-29 daily + + + + + + Noneen/installation/ - 2024-10-24 + 2024-10-29 daily + + + + + + Noneen/usage/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonees/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonees/api/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonees/contributing/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonees/faq/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonees/installation/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonees/usage/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/api/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/contributing/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/faq/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/installation/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/usage/ - 2024-10-24 + 2024-10-29 daily + + + + + + + + + Nonehi/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ar/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ar/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ar/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ar/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ar/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ar/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/de/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/de/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/de/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/de/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/de/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/de/usage/ + 2024-10-29 + daily + + + + + + + + + Nonefr/en/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/en/api/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/en/contributing/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/en/faq/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/en/installation/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/en/usage/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/es/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/es/api/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/es/contributing/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/es/faq/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/es/installation/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/es/usage/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/fr/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/fr/api/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/fr/contributing/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/fr/faq/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/fr/installation/ - 2024-10-24 + 2024-10-29 daily + + + + + + Nonefr/fr/usage/ - 2024-10-24 + 2024-10-29 daily + + + + + + - Nonees/en/ - 2024-10-24 + Nonefr/hi/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/en/api/ - 2024-10-24 + Nonefr/hi/api/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/en/contributing/ - 2024-10-24 + Nonefr/hi/contributing/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/en/faq/ - 2024-10-24 + Nonefr/hi/faq/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/en/installation/ - 2024-10-24 + Nonefr/hi/installation/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/en/usage/ - 2024-10-24 + Nonefr/hi/usage/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/es/ - 2024-10-24 + Nonefr/it/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/es/api/ - 2024-10-24 + Nonefr/it/api/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/es/contributing/ - 2024-10-24 + Nonefr/it/contributing/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/es/faq/ - 2024-10-24 + Nonefr/it/faq/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/es/installation/ - 2024-10-24 + Nonefr/it/installation/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/es/usage/ - 2024-10-24 + Nonefr/it/usage/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/fr/ - 2024-10-24 + Nonefr/ja/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/fr/api/ - 2024-10-24 + Nonefr/ja/api/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/fr/contributing/ - 2024-10-24 + Nonefr/ja/contributing/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/fr/faq/ - 2024-10-24 + Nonefr/ja/faq/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/fr/installation/ - 2024-10-24 + Nonefr/ja/installation/ + 2024-10-29 daily - - - + + + + + + + + + - Nonees/fr/usage/ - 2024-10-24 + Nonefr/ja/usage/ + 2024-10-29 daily - - - + + + + + + + + + + + + Nonefr/ko/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ko/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ko/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ko/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ko/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/ko/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/zh/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/zh/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/zh/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/zh/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/zh/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonefr/zh/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ar/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ar/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ar/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ar/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ar/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ar/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/de/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/de/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/de/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/de/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/de/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/de/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/en/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/en/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/en/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/en/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/en/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/en/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/es/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/es/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/es/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/es/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/es/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/es/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/fr/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/fr/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/fr/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/fr/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/fr/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/fr/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/hi/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/hi/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/hi/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/hi/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/hi/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/hi/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/it/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/it/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/it/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/it/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/it/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/it/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ja/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ja/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ja/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ja/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ja/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ja/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ko/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ko/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ko/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ko/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ko/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/ko/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/zh/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/zh/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/zh/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/zh/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/zh/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonees/zh/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ar/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ar/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ar/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ar/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ar/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ar/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/de/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/de/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/de/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/de/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/de/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/de/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/en/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/en/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/en/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/en/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/en/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/en/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/es/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/es/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/es/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/es/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/es/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/es/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/fr/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/fr/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/fr/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/fr/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/fr/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/fr/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/hi/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/hi/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/hi/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/hi/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/hi/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/hi/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/it/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/it/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/it/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/it/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/it/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/it/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ja/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ja/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ja/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ja/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ja/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ja/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ko/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ko/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ko/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ko/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ko/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/ko/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/zh/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/zh/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/zh/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/zh/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/zh/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonede/zh/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ar/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ar/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ar/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ar/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ar/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ar/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/de/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/de/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/de/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/de/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/de/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/de/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/en/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/en/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/en/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/en/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/en/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/en/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/es/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/es/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/es/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/es/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/es/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/es/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/fr/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/fr/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/fr/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/fr/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/fr/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/fr/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/hi/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/hi/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/hi/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/hi/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/hi/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/hi/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/it/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/it/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/it/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/it/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/it/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/it/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ja/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ja/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ja/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ja/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ja/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ja/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ko/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ko/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ko/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ko/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ko/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/ko/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/zh/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/zh/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/zh/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/zh/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/zh/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneit/zh/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ar/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ar/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ar/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ar/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ar/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ar/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/de/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/de/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/de/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/de/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/de/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/de/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/en/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/en/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/en/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/en/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/en/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/en/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/es/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/es/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/es/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/es/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/es/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/es/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/fr/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/fr/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/fr/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/fr/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/fr/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/fr/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/hi/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/hi/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/hi/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/hi/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/hi/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/hi/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/it/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/it/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/it/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/it/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/it/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/it/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ja/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ja/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ja/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ja/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ja/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ja/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ko/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ko/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ko/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ko/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ko/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/ko/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/zh/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/zh/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/zh/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/zh/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/zh/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonezh/zh/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ar/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ar/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ar/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ar/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ar/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ar/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/de/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/de/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/de/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/de/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/de/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/de/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/en/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/en/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/en/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/en/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/en/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/en/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/es/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/es/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/es/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/es/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/es/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/es/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/fr/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/fr/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/fr/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/fr/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/fr/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/fr/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/hi/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/hi/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/hi/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/hi/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/hi/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/hi/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/it/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/it/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/it/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/it/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/it/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/it/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ja/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ja/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ja/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ja/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ja/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ja/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ko/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ko/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ko/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ko/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ko/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/ko/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/zh/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/zh/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/zh/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/zh/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/zh/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneja/zh/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ar/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ar/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ar/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ar/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ar/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ar/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/de/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/de/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/de/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/de/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/de/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/de/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/en/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/en/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/en/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/en/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/en/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/en/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/es/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/es/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/es/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/es/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/es/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/es/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/fr/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/fr/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/fr/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/fr/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/fr/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/fr/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/hi/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/hi/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/hi/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/hi/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/hi/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/hi/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/it/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/it/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/it/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/it/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/it/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/it/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ja/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ja/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ja/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ja/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ja/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ja/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ko/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ko/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ko/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ko/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ko/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/ko/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/zh/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/zh/api/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/zh/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/zh/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/zh/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Nonehi/zh/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ar/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ar/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ar/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ar/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ar/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ar/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/de/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/de/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/de/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/de/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/de/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/de/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/en/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/en/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/en/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/en/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/en/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/en/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/es/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/es/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/es/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/es/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/es/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/es/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/fr/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/fr/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/fr/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/fr/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/fr/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/fr/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/hi/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/hi/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/hi/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/hi/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/hi/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/hi/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/it/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/it/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/it/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/it/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/it/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/it/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ja/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ja/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ja/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ja/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ja/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ja/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ko/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ko/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ko/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ko/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ko/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/ko/usage/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/zh/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/zh/api/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/zh/contributing/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/zh/faq/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/zh/installation/ + 2024-10-29 + daily + + + + + + + + + + + + Noneko/zh/usage/ + 2024-10-29 + daily + + + + + + + + + \ No newline at end of file diff --git a/sitemap.xml.gz b/sitemap.xml.gz index 1b3caeb404a9f2da3ecc7b1031495e0aac8a35db..57b0d8f67f2bb31da6aa2239628652e30bccf876 100755 GIT binary patch literal 18001 zcmeI4dpMNo|HmDgCSy@zD5snX%`~em@+C}&*ft~?3dPjyMhctcJSsHSX+@{am;r0nOyL)%g=Hemlb#4TWw`wX(d!gY4~m1nhM#Sk9&B1CcM$V@_0RcDQ=;> z;Sm*HcRge1`PQm>6JGELw|^6Z|2&MJ7dG6)@4IEfd+rlD(Bosm>Fe4W&ludp<3)`W z`tXOPOn8H-j8RVg5T~iHqc3mhZCVTOZx3D{Z!mJSZ}fK)-phK%*z>WD(OY57jIp5$ zn@rx}_+5D>9X+8VO)b2^`mp{elhN8dW&S%Bqke?nUvDz}x&ypl7;m&+-p7R3UFF7W zy~S9?ZAuF(8++ap_HKYb=ELvS4;vX^gpA5|q>bb;-oy{|^>4Dgp~Qb5)ilWci$C%- zUWHc^Hbx9ndae>W%mVb(D&m zMRQzybW>l3g#lNcV-+v$qoUpS(yrUh*uLA%h?xq0bt?-@4pUaq<{KF?8Ka|#T%1Wz zGXF+c=4i*5Iw!!yxN!7POBEyZbS3ojMI) zR*^jau^rv*&dyP;mG$!YOfT?5Ek3ik&&qmHeCChfM?!oi7FQNr>(h22?M`7;*r7LC z)fa~3Hy^Xg`fujWM+>X-Ra(hQOD#P)md#Trske1^aEy&lVWq2gF!5{%w8xg!svOUOmNm_#F z&@YPBQ7;CE8_NPZi5*Tg&!7)}aV+Z4$&L2PrqG8`p}OiNUb{hh%6bVd+*HlS zEa|tzpM@#WcPhe{fqCZIG!R#c$p=R~#ff)@65PQNC2r^^W3+N`!~q7zwbTt=+mnh2V_*hH zh!rh3ab75)cYsA^xS>bKXstb|M?x5wL(irkJw7pIYfq}hyXi+yOuVB7N4X5%`-U63 zb&Mti-tZs;Q$9iz1{3#&62b>qFZxG_1EF25asH8p55DWR!WF4s0>6+AAI$5vQYljR zZsl>VhV(pP-Mez46kakTQvEAWXBve=%fQ&Q)Jx4fu&y|@_MPr|c4=;$LpL1t>Y&%5 zb)}uC>%?tUt_R{O2NBRXFL?QM!^>{-mo2;9xFE?pYmWBQL~IC0pcr@jfK6WXW_@)hw;0x(gq%;I&r#5I@ z<-_-#DD;{m`jE90>{OS68jMstP)}KJtT>WTBrb$s%ROaXPH?&ND|G9`y20a?!s8?# zvb>U3BHj=e{>-90F7-MauY07M_-m$b6clMOP~=j&iCe3&ZHL~|I^1JDoN&wYlefUp z5{?E=I2Wgu08U@d>s@y}G|HtYv=iVomSLDXBP|F<;53BM#D)+G&1($Fd^~&a-{G?5 z@nXdUuDn?9t#r&Tr{qd83hjxz9a;*UNw@{!KubEtg&#q?+M^WIV1O#QPQURr#)t?%FwUjEAFNzU#Gou=ls^ z{%%T5@S%l%Mw zdNX@3*5bPAvF10v&GWH)qvz|JA5l=NkRb3CXoH3ITg!gN8!q#3Ow%G6uh$ZiU3EIs zAslsTqrJ5$!dtED&$?1-t@=tD6(P|o7V?S=2zL&Sm9NNvZO1Reqh-`lr{Wi^!y{^! zYKKtCU~yt>@u#gye(}eV-bKe^NO;kM>r{%Vj}oo5;HXuOxdB9n!*|xBk|R@K#PtL|{omn_ij8(f?yFW&uU* z^>Xy(?U()G(HZh~?BLk>C>@gChS#Fd74VEeHJUeW$q2%qw)FJGi!Ux;I1GIe4(sZm zc&rZ5g}T0cdlUKnncwPSwMnuG^Tn5w5GnRzP)tHDCyDRblpvORd4T&m_~w)ApRj4b^&%6TUOdxf0hgty6{68YqmV7yHcRnv`~ zgd^RRqqmDYa}n4fa>{XXinlm)>`C}oFoomf6pInq5%}1f@UdWuvdJlOW$0ep*wPr% z23h(Xac43DTR~27$J^vnHJ#WGv`KYbN#`X2?DSA1Ho=e-(To>whyNgQJrZ55L_Zi5 z$T^Lsmv>VUen@OSIN~W@yi?NIJ%BAz5{Z7IME|~O-6B;mm) z=#_L12cO_ZB)V0JE(GR2h{Wa^k_J+=pT~I~4qB_)oEW^%@5ng2*KJ)7k3O~lQCl_d9K76(ZSe>kK!jjhWk57t7HD&DW#pRAHlYQrp>YtTbhy zm?giReL11z!Bs5jeuI4N39_TG*p+-T*i(+1sM1c!#4#+BHmIUiGP_TKy!aUR1j_bydT`1uvl?foWQ%zeS~lRC7=}sX zp^1c1spO}}eVp0%?w)wG4B9+U@b#C4ucq{uZ645Q`O0YWOOM00@by=L?te{j2lmnj zmlr=3Z!}U<7k6e0on=R@ApM#teGH2Bu`5VhtGB;yMAJLGVt4(B&j~;5FQT;4z%_*OE=2gW>?+Q@?d-Xu=-q!@`1_oAV{6L`#Zi|tkzo|S zUU2XT_TIp6-FEEcJ+^p-8kaMA>%|bVbZC5j;Tq(7bVoUO^SrXkp|bE=)G6P?D@dZD zl!AMk0UW%c@jUFk3Pz>DVBwmmF?7es`T%VbQ!ke)@dkTO#46^9EM2&)(x4nnHHhvI z0&nf}6TalC4CknpZw_m}8NEn#UGsd|z0q^@J;!{iU$nTo4V_1Horxucq*EK@vxH!< z2}79D7M7*Q&~w%gkoDrLtI25ke>T0I32$Dp(lg-A8NL|KN*52Oi-RbWA>JtKyS4Zl zqRT)bW6@?dYKbP=k&VJ+NkdUn%8`wJoU+1_b^k#`a7^5ARflPrK9U<_kdViW2)2@J zZ`!{kjnejZ>Ncy8G1E5d*r7dRZt1))ryFFHUpqzy>Z{I{YM`Ss` zvAqJ-c(d^@O_yUy(Q1TL^#xez1!@aqr4yGV_HXj+d&fE6;|xLduFOYVhFSYSi`2k? zpenuMBQC?NC1z2HO)!_wf5hc+w6DjrcrcgueZ=K)v@b_s733f;+keDmfNL={-5=#l z2ZRF@&IWA!2+O8`$G%7`l$f4JKv=E-;Qk295U~MpV+~1ld>G3jWuIUfA~pc71K@Yl zIF?^d<@&?~VD25wcnWVE%e_;%J~076emeLpi@|gN%eJ3l84z3e8D9LYWMe7Ox=4M| zbJtDt0yI>b6aDvD(khfT06@z%CpzrobGcKtq&r$OZAp&;t*1*W|KY+ekK~!S@Wv=> zMmh^=|0|u3IMM%=&a-XhKj8F<|1!xo@hhZ%Wt-l5?HLM#OYr{pS#tar`M^(iwARb4 zQph+=h6;*dnDB&8GAseNzBfMT-W}2%8T$CXDPnW+uq<7~=5C}c{m9iUmPho_bffbk zGFPgP9VH<>ATGB^aSQ&Fqvn3m!SAETD9R1>rHM z`zfIAFPW@wz=xQrzM1|*oPsXEdR+(~nlcbR9v~rn+!gsEe0;#Otf}>Mcy`LDdyc(F zyly!ryHQG4!7u@kjf?L1n9y;Bpx&{>Z{D-XAE%=JSmiS`1GHA<`0OvkxfhVnE8_j+ z$`?NVjHgIGx+A~kMR3b2WyHqo>!GP?$f!n$$4@{qFbVsTg6qjCKf>knl-hSHW1qw2^OV~617n-ebk8ZJ_LTB@70UTNjwCjv z)Sgm46SPSUpc>x-mCu03AD7Qro7w3c!Dt4>G?bo#BwG-gC&?-Z%@bs81o#wyW~dr( zlXU(Yl-vT)3{~UDK@tFJb3teZ)OHGBcVjo-EIqrR+iG2r`cP|JW~5<~M7Pz-BK7Ow z7xG9dxS1izN7NDA$RH0Dzy%Q+ESF3tnm}Bbt2GyrSp;!Gm;g&m)1`zE7v_?VLM(vt z=})=Prhnm_R{X_3j~$FANK$AsqHVUGg4{#fW)Ov>N z2!Dq%kr0;!rPkpXSo08+T8pl_1try=r`8WRy5j0V80Wu>fG%I(z zl>S03){8J|=jC8{CFB~zRSl@v^fp|CS5tEMr1&<&1_Ezhw%Nn!ru|l+0drQ zmNTqENV=0?e+S8R(w|9pHmOycyg-Wd=bviIJ5zu#Kcj#V{wNB1V?hGO43`m-k%W)I zs;M9uX$E>g+Ntm&GnaN8EU2kRZ1f$xWZi z=o_UsxNA|ToP%&_*^ibvH$qmj|px z4qgV;bH8FM0DmyW4}d#P{{r=?^D$pDnd^@@MXJut^Hujoqx8+m3N)U+XP-}A9=zD@ zTC7qn^3AQyh9L=hU(-7cgd!haHQb$0wg#p;2VrpCHR?iPat zsk;%uhLY`m`-4MZ?R7kn1zOikiR|=R*M}@{NM3b@EO1r$GJ&LqWB{Eds?(F&T;^`E z08#@*`@gA%0jYr~zVaVY{4-JmQT*^fqWI^ec48;#2qZPAnJvbqYTFY<^dzYvnhF5z zm({=!sX-O~{ReS;vWT8SY9Nk>e-Otfi|8q&2HG~cc&fHNQAAIYTIue*fkQKsdUm#U zxPx_oa#CNlzKU4=wd?fXL0^JHxEh*Mps2j_@l2qerF&=JLWQro)6i1SN#!Rz0%bI( zekG`%EysXfeWTJ~yp+CRLEvrBn?N?ygA0;bb@lzYHa%JM{&YIiKYX0qpK8;vsy$xw z5-fEJUcuBJ*QSAD&Rm^Mm3TQWkb^252;3Jo+CMghnH{$kRNHRlyAT@&gFt~d&wQE_lEZz`bOs&J5k^047H&r z>gaEDo(;we?%+4JO%|d5S9QVH&Nk3R4+U0+KGCn%2LRJKeN$B7n$(t52+MDPNDMm8 zlZ5Utb*-aou}rp9HGy_#2KD0AC{&~SXR35WDfQ>ylhJvy^Z|sIBRg3gsM5WYedmAr z#!)}Kwc?y2u%GD{1I7F@9^w5xc*BVn_Bf$C%3ay?4a~%PRO5(<-f|LiK`~Wg@I&8u zg3yYiw@v~_Wi5u(qwq9~s@;@N*2|vkJO5KT_v}VHF&AfitDOb=M847a8=YsFE%N^Z zokxMastx%yd)&U&&i~ggJ&4X8elYLg06(wpa7?ETeXZ!}upJX#_BrbJ@v(OkX+VYKP(Z1#ad zJ!r{x8~=wUGxwljgWHh&IRQOr$lxYGn}+RicCnCmeV%|O&nq|kPg~1N5ZJ(OAgYhhD zJnI^)X;0U{{*9b625Z{WHLx8~&Uz~#O*<3yiFq3|rC-a?NrA9&+YYpOfl+Ky(vBE+ zazj0yjpC49n+#moz^?tVA`Qf9d0^k-kK4L{zZ%%JKUSoHSe*_0U)RPZ?V4#O0CV3g zibRi%OWLi|OaQFl792_ERltD;?Alb|Oapf9Nl6>1-H?;}u@XIqmAub#C1^v>@3t~7 zQh(hV=Ly=-;32COMd}y9b5)#K?HmsE`|8clq4=-cI*i?}Z1(k==x4_`-PQ$Mw|4A@jb>9TUI0{- zEkyzDMN|B43hC0kg-=;P&ifZ-C;5A9~Gb$fSNpqIdg!$SU^i4EewwZKi}> zyJKqGQPO_1!$qn(&GW_fRu8u%R5D7-CJlVE?Exj5)C|sU@Z__($0o% z2T*-grubsGuQmPm#gB<-uwLOHC)p$*+}wGXOwRat#xHNH#QS41iBmiA``w=J89Pm9 zv0Y63pFh5JzWOiW(|D65Vw{&>Y-Qpvom-EBV7uLRC3a>Nt)-i0i$JE!{6K=^$)MLA z`iFZ)Z%emI&hFfP+27M24u`@1RX=?4@~_?RI{dUhO44cgJ+;QzU>xiY3NJnhoC&#==KeAY27PRPJL*nKJ~IGX$11 z+&1e`n`=W4W%fH!#vDtR>N zX>{+IW{iNV8J1=xjTR?q@~AFZ9^-1Xc-fN&z_YaFZM2VoGU zEx4))$hH6)D?(^n8Yr2dZ40urB22agSvP^%7Eo`6qq+j=od9f0?dl3odj(cI0ofKv zdxfyTf-jt)Z40)*!qZ`al}|vn1=3+5tg+y0CurM(t+6mQS%3u;m~BBcSq|@%5CU$? zw$v-LoD>2l(pGIt{XR>HC*b5vW?O)jmXku@B;TrSso!cT@dTWl$!rU-*iw`Soa|e- VE$VK|{+k#V{sYw$- + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +

    配置

    +

    TextToAudioStream 的初始化参数

    +

    初始化 TextToAudioStream 类时,有多种选项可自定义其行为。以下是可用参数:

    +

    engine (BaseEngine)

    +
      +
    • 类型**: 基础引擎
    • +
    • 必需**: 是
    • +
    • 描述***: 负责文本到音频合成的底层引擎。您必须提供一个 BaseEngine 或其子类的实例才能启用音频合成。
    • +
    +

    on_text_stream_start(可调用)

    +
      +
    • 类型**: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 这个可选的回调函数会在文本流开始时触发。可用于任何设置或日志记录。
    • +
    +

    on_text_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当文本流结束时,这个可选的回调函数将被激活。可用于清理任务或日志记录。
    • +
    +

    on_audio_stream_start(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流启动时,会调用这个可选的回调函数。可用于用户界面更新或事件记录。
    • +
    +

    on_audio_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流停止时,会调用这个可选的回调函数。是资源清理或后处理任务的理想选择。
    • +
    +

    on_character(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 处理单个字符时调用此可选回调函数。
    • +
    +

    output_device_index (int)

    +
      +
    • 类型***: 整数
    • +
    • 要求**: 无
    • +
    • 默认**: 无
    • +
    • 描述***: 指定要使用的输出设备索引。无则使用默认设备。
    • +
    +

    tokenizer (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 无
    • +
    • 默认**: nltk
    • +
    • 描述**: 用于分句的标记符(目前支持 “nltk ”和 “stanza”)。
    • +
    +

    language (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 否
    • +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +

    muted (bool)

    +
      +
    • 类型***: 布尔
    • +
    • 要求**: 否
    • +
    • 默认**: 假
    • +
    • 描述***: 全局静音参数。如果为 True,则不会打开 pyAudio 流。禁止通过本地扬声器播放音频(以防要合成到文件或处理音频块),并覆盖播放参数静音设置。
    • +
    +

    level (int)

    +
      +
    • 类型**: 整数
    • +
    • 必须**: 无
    • +
    • 默认**: 日志警告
    • +
    • 描述***: 设置内部日志记录器的日志记录级别。可以是 Python 内置的 logging 模块中的任意整数常量。
    • +
    +

    使用示例:

    +
    engine = YourEngine() # 用你的引擎代替
    +stream = TextToAudioStream(
    +    engine=engine、
    +    on_text_stream_start=my_text_start_func、
    +    on_text_stream_stop=my_text_stop_func、
    +    on_audio_stream_start=my_audio_start_func、
    +    on_audio_stream_stop=my_audio_stop_func、
    +    级别=logging.INFO
    +)
    +
    +

    方法

    +

    playplay_async 方法

    +

    这些方法负责执行文本到音频的合成并播放音频流。不同之处在于,play 是一个阻塞函数,而 play_async 则在单独的线程中运行,允许其他操作继续进行。

    +
    参数:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 默认**: true
    • +
    • 描述***: 当设置为 “true ”时,该方法将优先考虑速度,以更快的速度生成和播放句子片段。这对延迟很重要的应用程序很有用。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 当设置为 “true ”时,快速句子片段处理适用于所有句子,而不仅仅是第一个句子。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 设置为 “true ”时,允许产生多个句子片段,而不是只有一个。
    • +
    +
    buffer_threshold_seconds (浮点数)
    +
      +
    • 默认值**: 0.0
    • +
    • +

      描述**: 指定缓冲阈值的时间(以秒为单位),它会影响音频播放的流畅性和连续性。

      +
    • +
    • +

      工作原理 在合成新句子之前,系统会检查缓冲区中剩余的音频资料是否多于 buffer_threshold_seconds指定的时间。如果是,系统就会从文本生成器中获取另一个句子,假设它能在缓冲区中剩余音频所提供的时间窗口内获取并合成这个新句子。这个过程可以让文本到语音引擎有更多的语境,从而更好地进行合成,增强用户体验。

      +
    • +
    +

    较高的值可确保有更多的预缓冲音频,减少播放过程中出现静音或间断的可能性。如果出现断句或停顿,请考虑增加该值。

    +
    minimum_sentence_length(int)
    +
      +
    • 默认10
    • +
    • 描述**: 设置将字符串视为句子进行合成的最小字符长度。这会影响文本块的处理和播放方式。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 默认值**: 10
    • +
    • 描述**: 第一个句子片段的最小字符数。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 启用后,记录合成为音频的文本块。有助于审计和调试。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 默认**: true
    • +
    • 描述**: 如果为 True,则在处理前重置生成的文本。
    • +
    +
    output_wavfile (str)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 如果设置为 “是”,则将音频保存到指定的 WAV 文件中。
    • +
    +
    on_sentence_synthesized(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成一个句子片段后调用的回调函数。
    • +
    +
    before_sentence_synthesized (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成单个句子片段之前调用的回调函数。
    • +
    +
    on_audio_chunk(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 单个音频片段准备就绪时调用的回调函数。
    • +
    +
    tokenizer (str)
    +
      +
    • 默认**: “nltk”
    • +
    • 描述**: 用于分句的标记符。目前支持 “nltk ”和 “stanza”。
    • +
    +
    tokenize_sentences (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 从输入文本中标记句子的自定义函数。如果对 nltk 和 stanza 不满意,可以提供自己的轻量级标记符。它应以字符串形式接收文本,并以字符串列表形式返回拆分后的句子。
    • +
    +
    language (str)
    +
      +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +
    context_size (int)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 用于建立句子边界检测上下文的字符数。上下文越大,检测句子边界的准确性就越高。
    • +
    +
    context_size_look_overhead (整数)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 检测句子边界时用于前瞻的额外上下文大小。
    • +
    +
    muted (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述***: 如果为 True,则禁止通过本地扬声器播放音频。当您想合成一个文件或处理音频块而不播放它们时,此功能非常有用。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 默认**: “.?!;:,\n...)]}。-”
    • +
    • 描述**: 被视为句子分隔符的字符串。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 默认值**: 15
    • +
    • 描述***: 强制产生第一个句子片段的字数。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ar/api/index.html b/zh/ar/api/index.html new file mode 100755 index 0000000..845e6a6 --- /dev/null +++ b/zh/ar/api/index.html @@ -0,0 +1,2359 @@ + + + + + + + + + + + + + + + + + + + Api - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Api

    + +

    التكوين

    +

    معلمات التهيئة لـ TextToAudioStream

    +

    عند تهيئة فئة TextToAudioStream، لديك خيارات متعددة لتخصيص سلوكها. إليك المعلمات المتاحة:

    +

    engine (BaseEngine)

    +
      +
    • النوع: BaseEngine
    • +
    • مطلوب: نعم المحرك الأساسي المسؤول عن تحويل النص إلى صوت. يجب عليك تقديم نسخة من BaseEngine أو أحد فروعها لتمكين توليف الصوت.
    • +
    +

    on_text_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق النص. استخدمه لأي إعداد أو تسجيل قد تحتاجه.
    • +
    +

    on_text_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم تفعيل هذه الدالة الراجعة الاختيارية عند انتهاء تدفق النص. يمكنك استخدام هذا لمهام التنظيف أو التسجيل.
    • +
    +

    on_audio_stream_start (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا يتم استدعاء هذه الدالة الاختيارية عند بدء تدفق الصوت. مفيد لتحديثات واجهة المستخدم أو تسجيل الأحداث.
    • +
    +

    on_audio_stream_stop (قابل للاستدعاء)

    +
      +
    • النوع: دالة قابلة للاستدعاء
    • +
    • مطلوب: لا تُستدعى هذه الدالة الاختيارية عند توقف تدفق الصوت. مثالي لتنظيف الموارد أو مهام المعالجة اللاحقة.
    • +
    +

    on_character (callable)

    +

    السياق: - النوع:
    +النص للترجمة: - النوع: دالة قابلة للاستدعاء +- مطلوب: لا تُستدعى هذه الدالة الاختيارية عند معالجة حرف واحد.

    +

    output_device_index (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا يحدد فهرس جهاز الإخراج الذي سيتم استخدامه. لا أحد يستخدم الجهاز الافتراضي.
    • +
    +

    tokenizer (string)

    +
      +
    • النوع: سلسلة
    • +
    • مطلوب: لا
    • +
    • افتراضي: nltk
    • +
    • الوصف: أداة تقسيم الجمل (currently "nltk" and "stanza" are supported).
    • +
    +

    language (سلسلة نصية)

    +
      +
    • النوع: سلسلة نصية
    • +
    • مطلوب: لا اللغة التي يجب استخدامها لتقسيم الجمل.
    • +
    +

    muted (bool)

    +
      +
    • النوع: Bool
    • +
    • مطلوب: لا
    • +
    • القيمة الافتراضية: False
    • +
    • الوصف: المعلمة العالمية الصامتة. إذا كان صحيحًا، فلن يتم فتح أي تدفق pyAudio. يعطل تشغيل الصوت عبر مكبرات الصوت المحلية (في حال كنت تريد التوليف إلى ملف أو معالجة أجزاء الصوت) ويتجاوز إعدادات كتم الصوت في معلمات التشغيل.
    • +
    +

    level (int)

    +
      +
    • النوع: عدد صحيح
    • +
    • مطلوب: لا
    • +
    • افتراضي: logging.WARNING
    • +
    • الوصف: يحدد مستوى التسجيل للمدون الداخلي. يمكن أن يكون هذا أي ثابت صحيح من وحدة logging المدمجة في بايثون.
    • +
    +

    النص المراد ترجمته: #### مثال على الاستخدام:

    +
    engine = YourEngine()  # استبدل بمحركك
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    الطرق

    +

    play و play_async

    +

    هذه الطرق مسؤولة عن تنفيذ تحويل النص إلى صوت وتشغيل تدفق الصوت. الفرق هو أن play هي دالة حظر، بينما play_async تعمل في خيط منفصل، مما يسمح للعمليات الأخرى بالاستمرار.

    +

    السياق: ##### المعايير:
    +النص المراد ترجمته: ##### المعايير:

    +
    fast_sentence_fragment (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: عند تعيينه على True، ستعطي الطريقة الأولوية للسرعة، مما يؤدي إلى إنشاء وتشغيل أجزاء الجمل بشكل أسرع. هذا مفيد للتطبيقات التي تكون فيها الكمون مهمًا.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند تعيينه إلى True، يتم تطبيق معالجة أجزاء الجمل السريعة على جميع الجمل، وليس فقط الجملة الأولى.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • افتراضي: خطأ
    • +
    • الوصف: عند تعيينه على True، يسمح بإنتاج أجزاء متعددة من الجمل بدلاً من جزء واحد فقط.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • الافتراضي: 0.0
    • +
    • +

      الوصف: يحدد الوقت بالثواني لعتبة التخزين المؤقت، مما يؤثر على سلاسة واستمرارية تشغيل الصوت.

      +
    • +
    • +

      كيف يعمل: قبل تركيب جملة جديدة، يتحقق النظام مما إذا كان هناك المزيد من المواد الصوتية المتبقية في المخزن المؤقت أكثر من الوقت المحدد بواسطة buffer_threshold_seconds. إذا كان الأمر كذلك، فإنه يسترجع جملة أخرى من مولد النصوص، على افتراض أنه يمكنه جلب وتوليف هذه الجملة الجديدة ضمن الإطار الزمني المتاح من الصوت المتبقي في الذاكرة المؤقتة. تسمح هذه العملية لمحرك تحويل النص إلى كلام بالحصول على مزيد من السياق لتحسين التركيب، مما يعزز تجربة المستخدم.

      +
    • +
    +

    قيمة أعلى تضمن وجود المزيد من الصوت المخزن مسبقًا، مما يقلل من احتمال حدوث صمت أو فجوات أثناء التشغيل. إذا كنت تواجه انقطاعات أو توقفات، فكر في زيادة هذه القيمة.

    +
    minimum_sentence_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: يحدد الحد الأدنى لطول الأحرف لاعتبار سلسلة كنص يجب تصنيعه. هذا يؤثر على كيفية معالجة وتشغيل أجزاء النص.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • الافتراضي: 10
    • +
    • الوصف: الحد الأدنى لعدد الأحرف المطلوبة للجزء الأول من الجملة قبل التوقف.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • الافتراضي: خطأ
    • +
    • الوصف: عند التفعيل، يسجل أجزاء النص كما يتم تحويلها إلى صوت. مفيد للتدقيق وإصلاح الأخطاء.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • الافتراضي: True
    • +
    • الوصف: إذا كان صحيحًا، أعد تعيين النص المُولد قبل المعالجة.
    • +
    +
    output_wavfile (str)
    +
      +
    • الافتراضي: None
    • +
    • الوصف: إذا تم تعيينه، احفظ الصوت في ملف WAV المحدد.
    • +
    +
    on_sentence_synthesized (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة رد نداء تُستدعى بعد أن يتم تركيب جزء جملة واحد.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: دالة رد نداء تُستدعى قبل أن يتم تركيب جزء جملة واحد.
    • +
    +
    on_audio_chunk (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء
    • +
    • الوصف: دالة الاستدعاء التي تُستدعى عندما يكون جزء الصوت جاهزًا.
    • +
    +
    tokenizer (str)
    +
      +
    • الافتراضي: "nltk"
    • +
    • الوصف: المحلل اللغوي المستخدم لتقسيم الجمل. يدعم حاليًا "nltk" و "stanza".
    • +
    +
    tokenize_sentences (قابل للاستدعاء)
    +
      +
    • الافتراضي: لا شيء +السياق: - الوصف:
      +النص للترجمة: - الوصف: دالة مخصصة تقوم بتقسيم الجمل من النص المدخل. يمكنك توفير محلل لغوي خفيف الوزن خاص بك إذا لم تكن راضيًا عن nltk وstanza. يجب أن يأخذ النص كسلسلة ويعيد الجمل المقسمة كقائمة من السلاسل.
    • +
    +
    language (str)
    +
      +
    • الإعداد الافتراضي: "en"
    • +
    • الوصف: اللغة المستخدمة لتقسيم الجمل.
    • +
    +
    context_size (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: عدد الأحرف المستخدمة لتحديد السياق لاكتشاف حدود الجمل. سياق أكبر يحسن دقة اكتشاف حدود الجمل.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • الافتراضي: 12
    • +
    • الوصف: حجم سياق إضافي للنظر للأمام عند اكتشاف حدود الجمل.
    • +
    +
    muted (bool)
    +
      +
    • الإعداد الافتراضي: خطأ
    • +
    • الوصف: إذا كان صحيحًا، يتم تعطيل تشغيل الصوت عبر مكبرات الصوت المحلية. مفيد عندما تريد التوليف إلى ملف أو معالجة مقاطع الصوت دون تشغيلها.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • الإعداد الافتراضي: ".?!;:,\n…)]}。-" سلسلة من الأحرف التي تُعتبر محددات للجمل.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • الافتراضي: 15
    • +
    • الوصف: عدد الكلمات التي يجب بعدها أن يتم تقديم الجزء الأول من الجملة.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ar/contributing/index.html b/zh/ar/contributing/index.html new file mode 100755 index 0000000..800c491 --- /dev/null +++ b/zh/ar/contributing/index.html @@ -0,0 +1,1853 @@ + + + + + + + + + + + + + + + + + + + المساهمة في RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    المساهمة في RealtimeTTS

    +

    نرحب بالمساهمات في RealtimeTTS! إليك بعض الطرق التي يمكنك المساهمة بها:

    +
      +
    1. +

      الإبلاغ عن الأخطاء: إذا وجدت خطأً، يرجى فتح مشكلة على مستودع GitHub الخاص بنا.

      +
    2. +
    3. +

      اقتراح التحسينات: هل لديك أفكار لميزات جديدة أو تحسينات؟ نود أن نسمعها! افتح قضية لاقتراح تحسينات.

      +
    4. +
    5. +

      مساهمات البرمجة: هل تريد إضافة ميزة جديدة أو إصلاح خطأ؟ رائع! يرجى اتباع هذه الخطوات:

      +
    6. +
    7. قم بعمل Fork للمستودع
    8. +
    9. أنشئ فرعًا جديدًا لميزتك
    10. +
    11. أجرِ التغييرات الخاصة بك
    12. +
    13. +

      قدّم طلب سحب مع وصف واضح للتغييرات التي أجريتها

      +
    14. +
    15. +

      التوثيق: ساعدنا في تحسين توثيقنا من خلال تصحيح الأخطاء المطبعية، وإضافة أمثلة، أو توضيح الأقسام المربكة.

      +
    16. +
    17. +

      إضافة محركات جديدة: إذا كنت ترغب في إضافة دعم لمحرك TTS جديد، يرجى فتح قضية أولاً لمناقشة التنفيذ.

      +
    18. +
    +

    شكراً لمساعدتك في تحسين RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ar/faq/index.html b/zh/ar/faq/index.html new file mode 100755 index 0000000..7c55590 --- /dev/null +++ b/zh/ar/faq/index.html @@ -0,0 +1,1837 @@ + + + + + + + + + + + + + + + + + + + الأسئلة المتكررة - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    الأسئلة المتكررة

    +

    للحصول على إجابات للأسئلة الشائعة حول RealtimeTTS، يرجى الرجوع إلى صفحة الأسئلة الشائعة على GitHub.

    +

    تغطي هذه الصفحة مواضيع متنوعة بما في ذلك:

    +
      +
    • استخدام محركات تحويل النص إلى كلام المختلفة
    • +
    • التعامل مع النصوص متعددة اللغات
    • +
    • تحسين الأداء
    • +
    • استكشاف المشكلات الشائعة وإصلاحها
    • +
    +

    لمزيد من المعلومات التفصيلية، يرجى زيارة الرابط أعلاه.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ar/index.html b/zh/ar/index.html new file mode 100755 index 0000000..e4eb892 --- /dev/null +++ b/zh/ar/index.html @@ -0,0 +1,1867 @@ + + + + + + + + + + + + + + + + + + + RealtimeTTS - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    مكتبة تحويل النص إلى كلام سهلة الاستخدام ومنخفضة الكمون للتطبيقات في الوقت الحقيقي

    +

    عن المشروع

    +

    RealtimeTTS هي مكتبة متطورة لتحويل النص إلى كلام (TTS) مصممة للتطبيقات في الوقت الفعلي. تتميز بقدرتها على تحويل تدفقات النصوص بسرعة إلى مخرجات صوتية عالية الجودة مع الحد الأدنى من التأخير.

    +

    الميزات الرئيسية

    +
      +
    • زمن استجابة منخفض: تحويل النص إلى كلام شبه فوري، متوافق مع مخرجات نماذج اللغة الكبيرة
    • +
    • صوت عالي الجودة: يولد كلامًا واضحًا وطبيعيًا
    • +
    • دعم محركات تحويل النص إلى كلام المتعددة: يدعم OpenAI TTS، Elevenlabs، Azure Speech Services، Coqui TTS، gTTS وSystem TTS
    • +
    • متعدد اللغات
    • +
    • قوي وموثوق: يضمن التشغيل المستمر من خلال آلية احتياطية، ويتحول إلى محركات بديلة في حالة حدوث انقطاعات لضمان أداء موحد وموثوق
    • +
    +

    للحصول على تعليمات التثبيت، وأمثلة الاستخدام، ومرجع واجهة برمجة التطبيقات، يرجى التنقل عبر الوثائق باستخدام الشريط الجانبي.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ar/installation/index.html b/zh/ar/installation/index.html new file mode 100755 index 0000000..d68b3e6 --- /dev/null +++ b/zh/ar/installation/index.html @@ -0,0 +1,2094 @@ + + + + + + + + + + + + + + + + + + + Installation - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Installation

    + +
    +

    ملاحظة: التثبيت الأساسي باستخدام pip install realtimetts لم يعد موصى به، استخدم pip install realtimetts[all] بدلاً من ذلك.

    +
    +

    توفر مكتبة RealtimeTTS خيارات تثبيت لمختلف التبعيات لحالتك الاستخدامية. إليك الطرق المختلفة التي يمكنك من خلالها تثبيت RealtimeTTS حسب احتياجاتك:

    +

    التثبيت الكامل

    +

    لتثبيت RealtimeTTS مع دعم لجميع محركات تحويل النص إلى كلام:

    +
    pip install -U realtimetts[all]
    +
    +

    التثبيت المخصص

    +

    يسمح RealtimeTTS بالتثبيت المخصص مع الحد الأدنى من تثبيت المكتبات. إليك الخيارات المتاحة: +- الكل: التثبيت الكامل مع دعم كل المحركات. +- النظام: يشمل قدرات تحويل النص إلى كلام الخاصة بالنظام (e.g., pyttsx3). +- azure: يضيف دعم خدمات Azure Cognitive Services Speech. +- elevenlabs: يتضمن التكامل مع واجهة برمجة تطبيقات ElevenLabs. +- openai: لخدمات الصوت من OpenAI. +- gtts: دعم Google Text-to-Speech. +- coqui: يقوم بتثبيت محرك Coqui TTS. +- minimal: يقوم بتثبيت المتطلبات الأساسية فقط بدون محرك (only needed if you want to develop an own engine)

    +

    قل أنك تريد تثبيت RealtimeTTS للاستخدام المحلي فقط مع Coqui TTS العصبي، فعليك استخدام:

    +
    pip install realtimetts[coqui]
    +
    +

    على سبيل المثال، إذا كنت ترغب في تثبيت RealtimeTTS مع دعم Azure Cognitive Services Speech و ElevenLabs و OpenAI فقط:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    تثبيت البيئة الافتراضية

    +

    بالنسبة لأولئك الذين يرغبون في إجراء تثبيت كامل داخل بيئة افتراضية، اتبعوا هذه الخطوات:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    مزيد من المعلومات حول تثبيت CUDA.

    +

    متطلبات المحرك

    +

    تتطلب المحركات المختلفة المدعومة من RealtimeTTS متطلبات فريدة. تأكد من أنك تلبي هذه المتطلبات بناءً على المحرك الذي تختاره.

    +

    محرك النظام

    +

    يعمل SystemEngine مباشرة مع قدرات تحويل النص إلى كلام المدمجة في نظامك. لا حاجة لأي إعداد إضافي.

    +

    GTTSEngine

    +

    يعمل GTTSEngine بشكل مباشر باستخدام واجهة برمجة التطبيقات لتحويل النص إلى كلام من Google Translate. لا حاجة لأي إعداد إضافي.

    +

    OpenAIEngine

    +

    لاستخدام OpenAIEngine: +- تعيين متغير البيئة OPENAI_API_KEY +- تثبيت ffmpeg (انظر تثبيت CUDA النقطة 3)

    +

    AzureEngine

    +

    لاستخدام AzureEngine، ستحتاج إلى: +- مفتاح واجهة برمجة تطبيقات تحويل النص إلى كلام من Microsoft Azure (المقدم عبر معامل منشئ AzureEngine "speech_key" أو في متغير البيئة AZURE_SPEECH_KEY) +- منطقة خدمة Microsoft Azure.

    +

    تأكد من أن لديك هذه البيانات متاحة ومهيأة بشكل صحيح عند تهيئة AzureEngine.

    +

    محرك Elevenlabs

    +

    بالنسبة لـ ElevenlabsEngine، تحتاج إلى: +- مفتاح واجهة برمجة تطبيقات Elevenlabs (المقدم عبر معلمة منشئ ElevenlabsEngine "api_key" أو في متغير البيئة ELEVENLABS_API_KEY) +- تم تثبيت mpv على نظامك (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 تثبيت mpv: + - macOS: + ``` + brew install mpv

    +
    
    +  - **لينكس وويندوز**: قم بزيارة [mpv.io](https://mpv.io/) للحصول على تعليمات التثبيت.
    +
    +### CoquiEngine
    +
    +يوفر تحويل النص إلى كلام العصبي المحلي عالي الجودة مع استنساخ الصوت.
    +
    +يقوم بتحميل نموذج TTS العصبي أولاً. في معظم الحالات، سيكون سريعًا بما يكفي للتشغيل في الوقت الحقيقي باستخدام تركيب GPU. يحتاج إلى حوالي 4-5 جيجابايت من ذاكرة الوصول العشوائي للرسوميات.
    +
    +- لاستنساخ الصوت، قدم اسم ملف wav يحتوي على الصوت المصدر كمعامل "voice" إلى مُنشئ CoquiEngine
    +- يعمل استنساخ الصوت بشكل أفضل مع ملف WAV أحادي 16 بت بتردد 22050 هرتز يحتوي على عينة قصيرة (~5-30 ثانية)
    +
    +في معظم الأنظمة، ستكون هناك حاجة لدعم وحدة معالجة الرسوميات (GPU) لتشغيلها بسرعة كافية في الوقت الحقيقي، وإلا ستواجه تلعثماً.
    +
    +
    +### تثبيت CUDA
    +
    +تُوصى هذه الخطوات لمن يحتاجون إلى **أداء أفضل** ولديهم وحدة معالجة رسومات NVIDIA متوافقة.
    +
    +> **ملاحظة**: *للتحقق مما إذا كانت بطاقة NVIDIA الرسومية الخاصة بك تدعم CUDA، قم بزيارة [قائمة بطاقات CUDA الرسمية](https://developer.nvidia.com/cuda-gpus).*
    +
    +لاستخدام Torch مع الدعم عبر CUDA، يرجى اتباع الخطوات التالية:
    +
    +> **ملاحظة**: *قد لا تحتاج إصدارات PyTorch الأحدث [إلى](https://stackoverflow.com/a/77069523) (غير مؤكدة) إلى تثبيت Toolkit (وربما cuDNN) بعد الآن.*
    +
    +1. **تثبيت NVIDIA CUDA Toolkit**:
    +    على سبيل المثال، لتثبيت Toolkit 12.X، يرجى
    +    - زيارة [تنزيلات NVIDIA CUDA](https://developer.nvidia.com/cuda-downloads).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار النظام.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +    أو لتثبيت Toolkit 11.8، يرجى
    +    - زيارة [أرشيف NVIDIA CUDA Toolkit](https://developer.nvidia.com/cuda-11-8-0-download-archive).
    +    - اختر نظام التشغيل الخاص بك، بنية النظام، وإصدار نظام التشغيل.
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٢. **تثبيت NVIDIA cuDNN**:
    +
    +    على سبيل المثال، لتثبيت cuDNN 8.7.0 لـ CUDA 11.x يرجى
    +    - زيارة [أرشيف NVIDIA cuDNN](https://developer.nvidia.com/rdp/cudnn-archive).
    +    - انقر على "تحميل cuDNN v8.7.0 (28 نوفمبر 2022)، لـ CUDA 11.x".
    +    - قم بتنزيل وتثبيت البرنامج.
    +
    +٣. **تثبيت ffmpeg**:
    +
    +    يمكنك تنزيل مثبت لنظام التشغيل الخاص بك من [موقع ffmpeg](https://ffmpeg.org/download.html).
    +
    +    أو استخدم مدير حزم:
    +
    +    - **على أوبونتو أو ديبيان**:
    +        ```
    +        sudo apt update && sudo apt install ffmpeg
    +        ```
    +
    +    - **على أرتش لينكس**:
    +        ```
    +        sudo pacman -S ffmpeg
    +        ```
    +
    +    - **على نظام MacOS باستخدام Homebrew** ([https://brew.sh/](https://brew.sh/)):
    +        ```
    +        brew install ffmpeg
    +        ```
    +
    +    - **على نظام ويندوز باستخدام Chocolatey** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **على نظام ويندوز باستخدام سكوب** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    سكووب تثبيت ffmpeg
    +
    +
    
    +٤. **تثبيت PyTorch مع دعم CUDA**:
    +
    +    لترقية تثبيت PyTorch الخاص بك لتمكين دعم GPU باستخدام CUDA، اتبع هذه التعليمات بناءً على إصدار CUDA الخاص بك. هذا مفيد إذا كنت ترغب في تحسين أداء RealtimeSTT بقدرات CUDA.
    +
    +    - **لـ CUDA 11.8:**
    +
    +        لتحديث PyTorch و Torchaudio لدعم CUDA 11.8، استخدم الأوامر التالية:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        النص للترجمة: ```
    +
    +- **لـ CUDA 12.X:**
    +
    +
    +    لتحديث PyTorch و Torchaudio لدعم CUDA 12.X، نفذ ما يلي:
    +
    +    ```
    +    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +

    النص للترجمة:

    +
    استبدل `2.3.1` بالإصدار من PyTorch الذي يتناسب مع نظامك ومتطلباتك.
    +
    +
      +
    1. إصلاح لحل مشاكل التوافق: + إذا واجهت مشاكل في توافق المكتبات، حاول ضبط هذه المكتبات على إصدارات ثابتة:
    2. +
    +

    النص للترجمة: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ar/usage/index.html b/zh/ar/usage/index.html new file mode 100755 index 0000000..ebb1a84 --- /dev/null +++ b/zh/ar/usage/index.html @@ -0,0 +1,2035 @@ + + + + + + + + + + + + + + + + + + + الاستخدام - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    الاستخدام

    +

    البداية السريعة

    +

    إليك مثال بسيط للاستخدام:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    نص التغذية

    +

    يمكنك إدخال سلاسل فردية:

    +
    stream.feed("مرحبًا، هذه جملة.")
    +
    +

    أو يمكنك تزويد المولدات ومكررات الشخصيات للبث المباشر:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    التشغيل

    +

    بشكل غير متزامن:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    بالتزامن:

    +
    stream.play()
    +
    +

    اختبار المكتبة

    +

    تحتوي الدليل الفرعي للاختبار على مجموعة من السكربتات لمساعدتك في تقييم وفهم قدرات مكتبة RealtimeTTS.

    +

    يرجى ملاحظة أن معظم الاختبارات لا تزال تعتمد على واجهة برمجة التطبيقات "القديمة" من OpenAI (<1.0.0). يتم توضيح استخدام واجهة برمجة التطبيقات الجديدة من OpenAI في openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • الوصف: عرض توضيحي بأسلوب "مرحبا بالعالم" لأبسط استخدامات المكتبة.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • الوصف: عرض شامل يوضح معظم الميزات التي توفرها المكتبة.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • الوصف: اختبار لمحرك تحويل النص إلى كلام المحلي coqui.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt.
      • +
      • الوصف: ترجمات فورية إلى ست لغات مختلفة.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • التبعيات: شغل pip install openai realtimestt. +السياق: - الوصف:
        +النص للترجمة: - الوصف: تم تفعيل كلمة الاستيقاظ وواجهة المستخدم المعتمدة على الصوت لواجهة برمجة تطبيقات OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • التبعيات: شغل الأمر pip install openai keyboard realtimestt.
      • +
      • الوصف: اختر محرك تحويل النص إلى كلام والصوت قبل بدء المحادثة مع الذكاء الاصطناعي.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • المتطلبات: قم بتشغيل pip install openai realtimestt.
      • +
      • الوصف: روبوت محادثة بسيط في 20 سطر من الشيفرة.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • التبعيات: شغّل pip install openai.
      • +
      • الوصف: عرض بسيط لكيفية دمج المكتبة مع نماذج اللغة الكبيرة (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • التبعيات: شغل pip install openai. +السياق: - الوصف:
        +النص للترجمة: - الوصف: يعرض الاستدعاءات ويتيح لك التحقق من أوقات الكمون في بيئة تطبيقات العالم الحقيقي.
      • +
      +
    • +
    +

    إيقاف مؤقت، استئناف وإيقاف

    +

    أوقف بث الصوت:

    +
    stream.pause()
    +
    +

    استئناف بث متوقف:

    +
    stream.resume()
    +
    +

    أوقف البث فورًا:

    +
    stream.stop()
    +
    +

    متطلبات موضحة

    +
      +
    • إصدار بايثون:
    • +
    • المطلوب: بايثون >= 3.9, < 3.13
    • +
    • +

      السبب: المكتبة تعتمد على مكتبة GitHub "TTS" من coqui، والتي تتطلب إصدارات بايثون في هذا النطاق.

      +
    • +
    • +

      PyAudio: لإنشاء دفق صوتي خارجي

      +
    • +
    • +

      stream2sentence: لتقسيم تدفق النص الوارد إلى جمل

      +
    • +
    • +

      pyttsx3: محرك تحويل النص إلى كلام للنظام

      +
    • +
    • +

      pydub: لتحويل تنسيقات مقاطع الصوت

      +
    • +
    • +

      azure-cognitiveservices-speech: محرك تحويل النص إلى كلام من Azure

      +
    • +
    • +

      elevenlabs: محرك تحويل النص إلى كلام من Elevenlabs

      +
    • +
    • +

      coqui-TTS: مكتبة Coqui XTTS لتحويل النص إلى كلام بجودة عالية باستخدام الشبكات العصبية المحلية

      +
    • +
    +

    تحية إلى معهد أبحاث إيديا على الحفاظ على نسخة مفرعة من coqui tts.

    +
      +
    • +

      openai: للتفاعل مع واجهة برمجة التطبيقات لتحويل النص إلى كلام من OpenAI

      +
    • +
    • +

      gtts: تحويل النص إلى كلام باستخدام Google Translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/contributing/index.html b/zh/contributing/index.html new file mode 100755 index 0000000..daeafc4 --- /dev/null +++ b/zh/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    向 RealtimeTTS 投稿

    +

    我们欢迎您为 RealtimeTTS 投稿!您可以通过以下方式为 RealtimeTTS 投稿:

    +
      +
    1. +

      报告错误: 如果您发现了错误,请在我们的 GitHub 存储库 上打开一个问题。

      +
    2. +
    3. +

      提出改进建议: 有关于新功能或改进的想法吗?我们很乐意倾听!打开问题,提出改进建议。

      +
    4. +
    5. +

      代码贡献: 想要添加新功能或修复错误?太好了!请按照以下步骤操作:

      +
    6. +
    7. 分叉版本库
    8. +
    9. 为您的功能创建一个新分支
    10. +
    11. 进行更改
    12. +
    13. +

      提交一个拉取请求,清楚地描述您的更改

      +
    14. +
    15. +

      文档: 通过修正错别字、添加示例或澄清易混淆的部分来帮助我们改进文档。

      +
    16. +
    17. +

      添加新引擎: 如果您想添加对新 TTS 引擎的支持,请先打开一个问题来讨论实现方法。

      +
    18. +
    +

    感谢您帮助改进 RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/de/api/index.html b/zh/de/api/index.html new file mode 100755 index 0000000..29adafa --- /dev/null +++ b/zh/de/api/index.html @@ -0,0 +1,2777 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Konfiguration

    +

    Initialisierungsparameter für TextToAudioStream

    +

    Bei der Initialisierung der TextToAudioStream-Klasse haben Sie verschiedene Möglichkeiten, deren Verhalten anzupassen. Hier sind die verfügbaren Parameter:

    +

    engine (BaseEngine)

    +
      +
    • Typ: BaseEngine
    • +
    • Erforderlich: Ja
    • +
    • Beschreibung: Die zugrunde liegende Engine, die für die Text-zu-Audio-Synthese verantwortlich ist. Sie müssen eine Instanz von BaseEngine oder deren Unterklasse bereitstellen, um die Audio-Synthese zu ermöglichen.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird ausgelöst, wenn der Textstream beginnt. Verwenden Sie sie für beliebige Setup- oder Logging-Aufgaben.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aktiviert, wenn der Textstream endet. Sie können diese für Aufräumarbeiten oder Logging verwenden.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream startet. Nützlich für UI-Aktualisierungen oder Event-Logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn der Audiostream stoppt. Ideal für Ressourcenbereinigung oder Nachbearbeitungsaufgaben.
    • +
    +

    on_character (callable)

    +
      +
    • Typ: Callable function
    • +
    • Erforderlich: Nein
    • +
    • Beschreibung: Diese optionale Callback-Funktion wird aufgerufen, wenn ein einzelnes Zeichen verarbeitet wird.
    • +
    +

    output_device_index (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: None
    • +
    • Beschreibung: Gibt den zu verwendenden Ausgabegeräte-Index an. None verwendet das Standardgerät.
    • +
    +

    tokenizer (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: nltk
    • +
    • Beschreibung: Tokenizer für die Satztrennung (derzeit werden "nltk" und "stanza" unterstützt).
    • +
    +

    language (string)

    +
      +
    • Typ: String
    • +
    • Erforderlich: Nein
    • +
    • Standard: en
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +

    muted (bool)

    +
      +
    • Typ: Bool
    • +
    • Erforderlich: Nein
    • +
    • Standard: False
    • +
    • Beschreibung: Globaler Stummschaltungsparameter. Wenn True, wird kein pyAudio-Stream geöffnet. Deaktiviert die Audiowiedergabe über lokale Lautsprecher.
    • +
    +

    level (int)

    +
      +
    • Typ: Integer
    • +
    • Erforderlich: Nein
    • +
    • Standard: logging.WARNING
    • +
    • Beschreibung: Legt den Logging-Level für den internen Logger fest.
    • +
    +

    Beispielverwendung:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methoden

    +

    play und play_async

    +

    Diese Methoden sind für die Ausführung der Text-zu-Audio-Synthese und das Abspielen des Audio-Streams verantwortlich. Der Unterschied besteht darin, dass play eine blockierende Funktion ist, während play_async in einem separaten Thread läuft, wodurch andere Operationen fortgesetzt werden können.

    +

    Parameter:

    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn auf True gesetzt, priorisiert die Methode die Geschwindigkeit und generiert und spielt Satzfragmente schneller ab. Dies ist nützlich für Anwendungen, bei denen die Latenz wichtig ist.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, wird die schnelle Satzfragmentverarbeitung auf alle Sätze angewendet, nicht nur auf den ersten.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn auf True gesetzt, ermöglicht es die Ausgabe mehrerer Satzfragmente anstelle von nur einem.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Beschreibung: Gibt die Zeit in Sekunden für den Puffer-Schwellenwert an, der die Gleichmäßigkeit und Kontinuität der Audiowiedergabe beeinflusst.

      +
    • +
    • +

      Funktionsweise: Bevor ein neuer Satz synthetisiert wird, prüft das System, ob mehr Audiomaterial im Puffer verbleibt als die durch buffer_threshold_seconds angegebene Zeit. Wenn ja, ruft es einen weiteren Satz vom Textgenerator ab, unter der Annahme, dass es diesen neuen Satz innerhalb des Zeitfensters, das durch das verbleibende Audio im Puffer bereitgestellt wird, abrufen und synthetisieren kann. Dieser Prozess ermöglicht es der Text-to-Speech-Engine, mehr Kontext für eine bessere Synthese zu haben und verbessert dadurch das Benutzererlebnis.

      +
    • +
    +

    Ein höherer Wert sorgt für mehr vorgepuffertes Audio und reduziert die Wahrscheinlichkeit von Stille oder Lücken während der Wiedergabe. Wenn Sie Unterbrechungen oder Pausen bemerken, erhöhen Sie diesen Wert.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Legt die minimale Zeichenlänge fest, ab der ein String als zu synthetisierender Satz betrachtet wird. Dies beeinflusst, wie Textabschnitte verarbeitet und abgespielt werden.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Beschreibung: Die minimale Anzahl von Zeichen, die für das erste Satzfragment erforderlich sind, bevor es ausgegeben wird.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn aktiviert, protokolliert es die Textabschnitte während ihrer Synthese zu Audio. Hilfreich für Überprüfung und Debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Beschreibung: Wenn True, wird der generierte Text vor der Verarbeitung zurückgesetzt.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Beschreibung: Wenn gesetzt, wird das Audio in der angegebenen WAV-Datei gespeichert.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, nachdem ein einzelnes Satzfragment synthetisiert wurde.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine Callback-Funktion, die aufgerufen wird, bevor ein einzelnes Satzfragment synthetisiert wird.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Callback-Funktion, die aufgerufen wird, wenn ein einzelner Audio-Chunk bereit ist.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Beschreibung: Tokenizer für die Satztrennung. Unterstützt derzeit "nltk" und "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Beschreibung: Eine benutzerdefinierte Funktion, die Sätze aus dem Eingabetext tokenisiert. Sie können Ihren eigenen leichtgewichtigen Tokenizer bereitstellen, wenn Sie mit nltk und stanza unzufrieden sind. Die Funktion sollte Text als String entgegennehmen und getrennte Sätze als Liste von Strings zurückgeben.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Beschreibung: Sprache für die Satztrennung.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Die Anzahl der Zeichen, die verwendet werden, um den Kontext für die Satzerkennung festzulegen. Ein größerer Kontext verbessert die Genauigkeit der Satzerkennung.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Beschreibung: Zusätzliche Kontextgröße für den Vorausblick bei der Satzerkennung.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Beschreibung: Wenn True, wird die Audiowiedergabe über lokale Lautsprecher deaktiviert. Nützlich, wenn Sie in eine Datei synthetisieren oder Audio-Chunks verarbeiten möchten, ohne sie abzuspielen.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Beschreibung: Eine Zeichenkette von Zeichen, die als Satztrennzeichen betrachtet werden.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Beschreibung: Die Anzahl der Wörter, nach denen das erste Satzfragment erzwungen ausgegeben wird.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/de/contributing/index.html b/zh/de/contributing/index.html new file mode 100755 index 0000000..af99967 --- /dev/null +++ b/zh/de/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Beitrag zu RealtimeTTS

    +

    Wir freuen uns über Beiträge zu RealtimeTTS! Hier sind einige Möglichkeiten, wie Sie dazu beitragen können:

    +
      +
    1. +

      Berichterstattung über Fehler: Wenn Sie einen Fehler finden, öffnen Sie bitte ein Problem in unserem [GitHub-Repository] (https://github.com/KoljaB/RealtimeTTS/issues).

      +
    2. +
    3. +

      ** Verbesserungsvorschläge**: Haben Sie Ideen für neue Funktionen oder Verbesserungen? Wir würden sie gerne hören! Öffnen Sie eine Ausgabe, um Verbesserungen vorzuschlagen.

      +
    4. +
    5. +

      Code Beiträge: Möchten Sie eine neue Funktion hinzufügen oder einen Fehler beheben? Super! Bitte folgen Sie diesen Schritten:

      +
    6. +
    7. Forken Sie das Repository
    8. +
    9. Erstellen Sie einen neuen Zweig für Ihre Funktion
    10. +
    11. Nehmen Sie Ihre Änderungen vor
    12. +
    13. +

      Senden Sie eine Pull-Anfrage mit einer klaren Beschreibung Ihrer Änderungen

      +
    14. +
    15. +

      Dokumentation: Helfen Sie uns, unsere Dokumentation zu verbessern, indem Sie Tippfehler reparieren, Beispiele hinzufügen oder verwirrende Abschnitte klären.

      +
    16. +
    17. +

      ** Hinzufügen neuer Motoren**: Wenn Sie Unterstützung für eine neue TTS-Engine hinzufügen möchten, öffnen Sie bitte zuerst eine Ausgabe, um die Implementierung zu besprechen.

      +
    18. +
    +

    Vielen Dank, dass Sie dazu beigetragen haben, RealtimeTTS besser zu machen!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/de/faq/index.html b/zh/de/faq/index.html new file mode 100755 index 0000000..0afa24d --- /dev/null +++ b/zh/de/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Häufig gestellte Fragen

    +

    Antworten auf häufig gestellte Fragen zu RealtimeTTS finden Sie auf unserer [FAQ-Seite auf GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Diese Seite behandelt verschiedene Themen, darunter:

    +
      +
    • Verwendung verschiedener TTS-Motoren
    • +
    • Umgang mit mehrsprachigem Text
    • +
    • Leistungsoptimierung
    • +
    • Fehlerbehebung bei häufigen Problemen
    • +
    +

    Für genauere Informationen besuchen Sie bitte den obigen Link.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/de/index.html b/zh/de/index.html new file mode 100755 index 0000000..fc17121 --- /dev/null +++ b/zh/de/index.html @@ -0,0 +1,1864 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +
      +
    • Einfach zu verwendende Text-to-Speech-Bibliothek mit geringer Latenz für Echtzeitanwendungen*
    • +
    +

    Über das Projekt

    +

    RealtimeTTS ist eine hochmoderne Text-to-Speech-Bibliothek (TTS), die für Echtzeitanwendungen entwickelt wurde. Es zeichnet sich durch seine Fähigkeit aus, Textströme schnell in hochwertige Hörausgaben mit minimaler Latenz umzuwandeln.

    +

    Hauptmerkmale

    +
      +
    • Niedrige Latenz: nahezu sofortige Text-zu-Sprache-Konvertierung, kompatibel mit LLM-Ausgaben
    • +
    • High-Quality Audio: erzeugt klare und natürlich klingende Sprache
    • +
    • Multiple TTS Engine Support: unterstützt OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS und System TTS
    • +
    • Mehrsprachig
    • +
    • Robust und zuverlässig: sorgt für einen kontinuierlichen Betrieb durch einen Rückfallmechanismus und wechselt bei Störungen zu alternativen Motoren, die eine gleichbleibende Leistung und Zuverlässigkeit gewährleisten
    • +
    +

    Für Installationsanweisungen, Nutzungsbeispiele und API-Referenzen navigieren Sie bitte über die Seitenleiste durch die Dokumentation.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/de/installation/index.html b/zh/de/installation/index.html new file mode 100755 index 0000000..b4445b8 --- /dev/null +++ b/zh/de/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Deutsch

    + +
    +

    Hinweis: Die Basisinstallation mit pip install realtimetts wird nicht mehr empfohlen. Verwenden Sie stattdessen pip install realtimetts[all].

    +
    +

    Die RealtimeTTS-Bibliothek bietet verschiedene Installationsoptionen für Abhängigkeiten je nach Anwendungsfall. Hier sind die verschiedenen Möglichkeiten, RealtimeTTS entsprechend Ihren Anforderungen zu installieren:

    +

    Vollständige Installation

    +

    Um RealtimeTTS mit Unterstützung für alle TTS-Engines zu installieren:

    +
    pip install -U realtimetts[all]
    +
    +

    Benutzerdefinierte Installation

    +

    RealtimeTTS ermöglicht eine benutzerdefinierte Installation mit minimalen Bibliotheksinstallationen. Folgende Optionen stehen zur Verfügung: +- all: Vollständige Installation mit Unterstützung aller Engines. +- system: Enthält systemspezifische TTS-Fähigkeiten (z.B. pyttsx3). +- azure: Fügt Azure Cognitive Services Speech-Unterstützung hinzu. +- elevenlabs: Enthält Integration mit der ElevenLabs API. +- openai: Für OpenAI-Sprachdienste. +- gtts: Google Text-to-Speech-Unterstützung. +- coqui: Installiert die Coqui TTS-Engine. +- minimal: Installiert nur die Basisanforderungen ohne Engine (nur erforderlich, wenn Sie eine eigene Engine entwickeln möchten)

    +

    Wenn Sie RealtimeTTS nur für die lokale neuronale Coqui TTS-Nutzung installieren möchten, verwenden Sie:

    +
    pip install realtimetts[coqui]
    +
    +

    Wenn Sie beispielsweise RealtimeTTS nur mit Azure Cognitive Services Speech, ElevenLabs und OpenAI-Unterstützung installieren möchten:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installation in virtueller Umgebung

    +

    Für diejenigen, die eine vollständige Installation in einer virtuellen Umgebung durchführen möchten, folgen Sie diesen Schritten:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Weitere Informationen zur CUDA-Installation.

    +

    Engine-Anforderungen

    +

    Verschiedene von RealtimeTTS unterstützte Engines haben spezifische Anforderungen. Stellen Sie sicher, dass Sie diese Anforderungen je nach gewählter Engine erfüllen.

    +

    SystemEngine

    +

    Die SystemEngine funktioniert von Haus aus mit den integrierten TTS-Fähigkeiten Ihres Systems. Keine zusätzliche Einrichtung erforderlich.

    +

    GTTSEngine

    +

    Die GTTSEngine funktioniert von Haus aus mit der Google Translate Text-to-Speech API. Keine zusätzliche Einrichtung erforderlich.

    +

    OpenAIEngine

    +

    Zur Verwendung der OpenAIEngine: +- Umgebungsvariable OPENAI_API_KEY setzen +- ffmpeg installieren (siehe CUDA-Installation Punkt 3)

    +

    AzureEngine

    +

    Für die Verwendung der AzureEngine benötigen Sie: +- Microsoft Azure Text-to-Speech API-Schlüssel (bereitgestellt über den AzureEngine-Konstruktorparameter "speech_key" oder in der Umgebungsvariable AZURE_SPEECH_KEY) +- Microsoft Azure Service-Region

    +

    Stellen Sie sicher, dass diese Anmeldedaten verfügbar und korrekt konfiguriert sind, wenn Sie die AzureEngine initialisieren.

    +

    ElevenlabsEngine

    +

    Für die ElevenlabsEngine benötigen Sie: +- Elevenlabs API-Schlüssel (bereitgestellt über den ElevenlabsEngine-Konstruktorparameter "api_key" oder in der Umgebungsvariable ELEVENLABS_API_KEY) +- mpv auf Ihrem System installiert (wesentlich für das Streaming von MPEG-Audio, Elevenlabs liefert nur MPEG)

    +

    🔹 Installation von mpv: + - macOS: + brew install mpv

    +
      +
    • Linux und Windows: Besuchen Sie mpv.io für Installationsanweisungen.
    • +
    +

    CoquiEngine

    +

    Bietet hochwertige, lokale, neuronale TTS mit Stimmklonen.

    +

    Lädt zuerst ein neurales TTS-Modell herunter. In den meisten Fällen ist es mit GPU-Synthese schnell genug für Echtzeit. Benötigt etwa 4-5 GB VRAM.

    +
      +
    • Um eine Stimme zu klonen, übergeben Sie den Dateinamen einer Wave-Datei, die die Quellstimme enthält, als "voice"-Parameter an den CoquiEngine-Konstruktor
    • +
    • Stimmklonen funktioniert am besten mit einer 22050 Hz Mono 16bit WAV-Datei, die eine kurze (~5-30 Sek.) Probe enthält
    • +
    +

    Auf den meisten Systemen wird GPU-Unterstützung benötigt, um schnell genug für Echtzeit zu sein, andernfalls werden Sie Stottern erleben.

    +

    CUDA-Installation

    +

    Diese Schritte werden für diejenigen empfohlen, die bessere Leistung benötigen und eine kompatible NVIDIA GPU haben.

    +
    +

    Hinweis: Um zu überprüfen, ob Ihre NVIDIA GPU CUDA unterstützt, besuchen Sie die offizielle CUDA GPUs-Liste.

    +
    +

    Um torch mit CUDA-Unterstützung zu verwenden, folgen Sie bitte diesen Schritten:

    +
    +

    Hinweis: Neuere PyTorch-Installationen könnten (unbestätigt) keine Toolkit (und möglicherweise cuDNN) Installation mehr benötigen.

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkit installieren: + Um beispielsweise Toolkit 12.X zu installieren:

      +
        +
      • Besuchen Sie NVIDIA CUDA Downloads.
      • +
      • Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version.
      • +
      • Laden Sie die Software herunter und installieren Sie sie.
      • +
      +

      oder um Toolkit 11.8 zu installieren: +- Besuchen Sie NVIDIA CUDA Toolkit Archive. +- Wählen Sie Ihr Betriebssystem, Systemarchitektur und OS-Version. +- Laden Sie die Software herunter und installieren Sie sie.

      +
    2. +
    3. +

      NVIDIA cuDNN installieren:

      +

      Um beispielsweise cuDNN 8.7.0 für CUDA 11.x zu installieren: +- Besuchen Sie NVIDIA cuDNN Archive. +- Klicken Sie auf "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Laden Sie die Software herunter und installieren Sie sie.

      +
    4. +
    5. +

      ffmpeg installieren:

      +

      Sie können einen Installer für Ihr Betriebssystem von der ffmpeg Website herunterladen.

      +

      Oder verwenden Sie einen Paketmanager:

      +
        +
      • +

        Unter Ubuntu oder Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Unter Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Unter MacOS mit Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Unter Windows mit Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Unter Windows mit Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      PyTorch mit CUDA-Unterstützung installieren:

      +

      Um Ihre PyTorch-Installation zu aktualisieren und GPU-Unterstützung mit CUDA zu aktivieren, folgen Sie diesen Anweisungen basierend auf Ihrer spezifischen CUDA-Version. Dies ist nützlich, wenn Sie die Leistung von RealtimeSTT mit CUDA-Fähigkeiten verbessern möchten.

      +
        +
      • +

        Für CUDA 11.8:

        +

        Um PyTorch und Torchaudio für CUDA 11.8-Unterstützung zu aktualisieren, verwenden Sie folgende Befehle:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Für CUDA 12.X:

        +

        Um PyTorch und Torchaudio für CUDA 12.X-Unterstützung zu aktualisieren, führen Sie Folgendes aus:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Ersetzen Sie 2.3.1 durch die Version von PyTorch, die Ihrem System und Ihren Anforderungen entspricht.

      +
    8. +
    9. +

      Behebung von Kompatibilitätsproblemen: + Wenn Sie auf Bibliotheks-Kompatibilitätsprobleme stoßen, versuchen Sie, diese Bibliotheken auf feste Versionen zu setzen:

      +
    10. +
    +

    `

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    `

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/de/usage/index.html b/zh/de/usage/index.html new file mode 100755 index 0000000..44188b9 --- /dev/null +++ b/zh/de/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Deutsch - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Verwendung

    +

    Schnellstart

    +

    Hier ist ein grundlegendes Beispiel:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # ersetzen Sie dies mit Ihrer TTS-Engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Text Einspeisung

    +

    Sie können einzelne Zeichenketten einspeisen:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oder Sie können Generatoren und Zeichen-Iteratoren für Echtzeit-Streaming verwenden:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Wiedergabe

    +

    Asynchron:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchron:

    +
    stream.play()
    +
    +

    Testen der Bibliothek

    +

    Das Test-Unterverzeichnis enthält eine Reihe von Skripten, die Ihnen helfen, die Fähigkeiten der RealtimeTTS-Bibliothek zu bewerten und zu verstehen.

    +

    Beachten Sie, dass die meisten Tests noch auf der "alten" OpenAI API (<1.0.0) basieren. Die Verwendung der neuen OpenAI API wird in openai_1.0_test.py demonstriert.

    +
      +
    • +

      simple_test.py

      +
        +
      • Beschreibung: Eine "Hello World"-ähnliche Demonstration der einfachsten Bibliotheksnutzung.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Beschreibung: Eine umfassende Demonstration der meisten Funktionen der Bibliothek.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Beschreibung: Test der lokalen Coqui TTS-Engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Echtzeitübersetzungen in sechs verschiedene Sprachen.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Durch Aktivierungswort gesteuerte und sprachbasierte Benutzeroberfläche für die OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai keyboard realtimestt aus.
      • +
      • Beschreibung: Wählen Sie TTS-Engine und Stimme vor Beginn der KI-Konversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai realtimestt aus.
      • +
      • Beschreibung: Ein grundlegender Sprachbot in 20 Codezeilen.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Einfache Demonstration der Integration der Bibliothek mit Large Language Models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Abhängigkeiten: Führen Sie pip install openai aus.
      • +
      • Beschreibung: Zeigt die Callbacks und lässt Sie die Latenzzeiten in einer realen Anwendungsumgebung überprüfen.
      • +
      +
    • +
    +

    Pause, Fortsetzen & Stoppen

    +

    Audiostream pausieren:

    +
    stream.pause()
    +
    +

    Pausierten Stream fortsetzen:

    +
    stream.resume()
    +
    +

    Stream sofort stoppen:

    +
    stream.stop()
    +
    +

    Erläuterung der Anforderungen

    +
      +
    • Python Version:
    • +
    • Erforderlich: Python >= 3.9, < 3.13
    • +
    • +

      Grund: Die Bibliothek hängt von der GitHub-Bibliothek "TTS" von Coqui ab, die Python-Versionen in diesem Bereich erfordert.

      +
    • +
    • +

      PyAudio: zur Erstellung eines Audio-Ausgabestreams

      +
    • +
    • +

      stream2sentence: zum Aufteilen des eingehenden Textstreams in Sätze

      +
    • +
    • +

      pyttsx3: System Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      pydub: zur Konvertierung von Audio-Chunk-Formaten

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech Konvertierungs-Engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS Text-to-Speech Bibliothek für hochwertige lokale neuronale TTS

      +
    • +
    +

    Dank an das Idiap Research Institute für die Pflege eines Forks von Coqui TTS.

    +
      +
    • +

      openai: zur Interaktion mit der OpenAI TTS API

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech Konvertierung

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/en/api/index.html b/zh/en/api/index.html new file mode 100755 index 0000000..9def1d3 --- /dev/null +++ b/zh/en/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    English

    + +

    Configuration

    +

    Initialization Parameters for TextToAudioStream

    +

    When you initialize the TextToAudioStream class, you have various options to customize its behavior. Here are the available parameters:

    +

    engine (BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Required: Yes
    • +
    • Description: The underlying engine responsible for text-to-audio synthesis. You must provide an instance of BaseEngine or its subclass to enable audio synthesis.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is triggered when the text stream begins. Use it for any setup or logging you may need.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is activated when the text stream ends. You can use this for cleanup tasks or logging.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is invoked when the audio stream starts. Useful for UI updates or event logging.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when the audio stream stops. Ideal for resource cleanup or post-processing tasks.
    • +
    +

    on_character (callable)

    +
      +
    • Type: Callable function
    • +
    • Required: No
    • +
    • Description: This optional callback function is called when a single character is processed.
    • +
    +

    output_device_index (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: None
    • +
    • Description: Specifies the output device index to use. None uses the default device.
    • +
    +

    tokenizer (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: nltk
    • +
    • Description: Tokenizer to use for sentence splitting (currently "nltk" and "stanza" are supported).
    • +
    +

    language (string)

    +
      +
    • Type: String
    • +
    • Required: No
    • +
    • Default: en
    • +
    • Description: Language to use for sentence splitting.
    • +
    +

    muted (bool)

    +
      +
    • Type: Bool
    • +
    • Required: No
    • +
    • Default: False
    • +
    • Description: Global muted parameter. If True, no pyAudio stream will be opened. Disables audio playback via local speakers (in case you want to synthesize to file or process audio chunks) and overrides the play parameters muted setting.
    • +
    +

    level (int)

    +
      +
    • Type: Integer
    • +
    • Required: No
    • +
    • Default: logging.WARNING
    • +
    • Description: Sets the logging level for the internal logger. This can be any integer constant from Python's built-in logging module.
    • +
    +

    Example Usage:

    +
    engine = YourEngine()  # Substitute with your engine
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Methods

    +

    play and play_async

    +

    These methods are responsible for executing the text-to-audio synthesis and playing the audio stream. The difference is that play is a blocking function, while play_async runs in a separate thread, allowing other operations to proceed.

    +
    Parameters:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Default: True
    • +
    • Description: When set to True, the method will prioritize speed, generating and playing sentence fragments faster. This is useful for applications where latency matters.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, applies the fast sentence fragment processing to all sentences, not just the first one.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Default: False
    • +
    • Description: When set to True, allows yielding multiple sentence fragments instead of just a single one.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Default: 0.0
    • +
    • +

      Description: Specifies the time in seconds for the buffering threshold, which impacts the smoothness and continuity of audio playback.

      +
    • +
    • +

      How it Works: Before synthesizing a new sentence, the system checks if there is more audio material left in the buffer than the time specified by buffer_threshold_seconds. If so, it retrieves another sentence from the text generator, assuming that it can fetch and synthesize this new sentence within the time window provided by the remaining audio in the buffer. This process allows the text-to-speech engine to have more context for better synthesis, enhancing the user experience.

      +
    • +
    +

    A higher value ensures that there's more pre-buffered audio, reducing the likelihood of silence or gaps during playback. If you experience breaks or pauses, consider increasing this value.

    +
    minimum_sentence_length (int)
    +
      +
    • Default: 10
    • +
    • Description: Sets the minimum character length to consider a string as a sentence to be synthesized. This affects how text chunks are processed and played.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Default: 10
    • +
    • Description: The minimum number of characters required for the first sentence fragment before yielding.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Default: False
    • +
    • Description: When enabled, logs the text chunks as they are synthesized into audio. Helpful for auditing and debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Default: True
    • +
    • Description: If True, reset the generated text before processing.
    • +
    +
    output_wavfile (str)
    +
      +
    • Default: None
    • +
    • Description: If set, save the audio to the specified WAV file.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called after a single sentence fragment was synthesized.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Default: None
    • +
    • Description: A callback function that gets called before a single sentence fragment gets synthesized.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Default: None
    • +
    • Description: Callback function that gets called when a single audio chunk is ready.
    • +
    +
    tokenizer (str)
    +
      +
    • Default: "nltk"
    • +
    • Description: Tokenizer to use for sentence splitting. Currently supports "nltk" and "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Default: None
    • +
    • Description: A custom function that tokenizes sentences from the input text. You can provide your own lightweight tokenizer if you are unhappy with nltk and stanza. It should take text as a string and return split sentences as a list of strings.
    • +
    +
    language (str)
    +
      +
    • Default: "en"
    • +
    • Description: Language to use for sentence splitting.
    • +
    +
    context_size (int)
    +
      +
    • Default: 12
    • +
    • Description: The number of characters used to establish context for sentence boundary detection. A larger context improves the accuracy of detecting sentence boundaries.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Default: 12
    • +
    • Description: Additional context size for looking ahead when detecting sentence boundaries.
    • +
    +
    muted (bool)
    +
      +
    • Default: False
    • +
    • Description: If True, disables audio playback via local speakers. Useful when you want to synthesize to a file or process audio chunks without playing them.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Default: ".?!;:,\n…)]}。-"
    • +
    • Description: A string of characters that are considered sentence delimiters.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Default: 15
    • +
    • Description: The number of words after which the first sentence fragment is forced to be yielded.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/en/contributing/index.html b/zh/en/contributing/index.html new file mode 100755 index 0000000..d5e9fe2 --- /dev/null +++ b/zh/en/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contributing to RealtimeTTS

    +

    We welcome contributions to RealtimeTTS! Here are some ways you can contribute:

    +
      +
    1. +

      Reporting Bugs: If you find a bug, please open an issue on our GitHub repository.

      +
    2. +
    3. +

      Suggesting Enhancements: Have ideas for new features or improvements? We'd love to hear them! Open an issue to suggest enhancements.

      +
    4. +
    5. +

      Code Contributions: Want to add a new feature or fix a bug? Great! Please follow these steps:

      +
    6. +
    7. Fork the repository
    8. +
    9. Create a new branch for your feature
    10. +
    11. Make your changes
    12. +
    13. +

      Submit a pull request with a clear description of your changes

      +
    14. +
    15. +

      Documentation: Help us improve our documentation by fixing typos, adding examples, or clarifying confusing sections.

      +
    16. +
    17. +

      Adding New Engines: If you want to add support for a new TTS engine, please open an issue first to discuss the implementation.

      +
    18. +
    +

    Thank you for helping make RealtimeTTS better!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/en/faq/index.html b/zh/en/faq/index.html new file mode 100755 index 0000000..7a669d1 --- /dev/null +++ b/zh/en/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Frequently Asked Questions

    +

    For answers to frequently asked questions about RealtimeTTS, please refer to our FAQ page on GitHub.

    +

    This page covers various topics including:

    +
      +
    • Usage of different TTS engines
    • +
    • Handling of multilingual text
    • +
    • Performance optimization
    • +
    • Troubleshooting common issues
    • +
    +

    For more detailed information, please visit the link above.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/en/index.html b/zh/en/index.html new file mode 100755 index 0000000..34d70ac --- /dev/null +++ b/zh/en/index.html @@ -0,0 +1,1934 @@ + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Easy to use, low-latency text-to-speech library for realtime applications

    +

    About the Project

    +

    RealtimeTTS is a state-of-the-art text-to-speech (TTS) library designed for real-time applications. It stands out in its ability to convert text streams fast into high-quality auditory output with minimal latency.

    +

    Key Features

    +
      +
    • Low Latency: almost instantaneous text-to-speech conversion, compatible with LLM outputs
    • +
    • High-Quality Audio: generates clear and natural-sounding speech
    • +
    • Multiple TTS Engine Support: supports OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS and System TTS
    • +
    • Multilingual
    • +
    • Robust and Reliable: ensures continuous operation through a fallback mechanism, switches to alternative engines in case of disruptions guaranteeing consistent performance and reliability
    • +
    +

    For installation instructions, usage examples, and API reference, please navigate through the documentation using the sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/en/installation/index.html b/zh/en/installation/index.html new file mode 100755 index 0000000..687f0b4 --- /dev/null +++ b/zh/en/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    English

    + +
    +

    Note: Basic Installation with pip install realtimetts is not recommended anymore, use pip install realtimetts[all] instead.

    +
    +

    The RealtimeTTS library provides installation options for various dependencies for your use case. Here are the different ways you can install RealtimeTTS depending on your needs:

    +

    Full Installation

    +

    To install RealtimeTTS with support for all TTS engines:

    +
    pip install -U realtimetts[all]
    +
    +

    Custom Installation

    +

    RealtimeTTS allows for custom installation with minimal library installations. Here are the options available: +- all: Full installation with every engine supported. +- system: Includes system-specific TTS capabilities (e.g., pyttsx3). +- azure: Adds Azure Cognitive Services Speech support. +- elevenlabs: Includes integration with ElevenLabs API. +- openai: For OpenAI voice services. +- gtts: Google Text-to-Speech support. +- coqui: Installs the Coqui TTS engine. +- minimal: Installs only the base requirements with no engine (only needed if you want to develop an own engine)

    +

    Say you want to install RealtimeTTS only for local neuronal Coqui TTS usage, then you should use:

    +
    pip install realtimetts[coqui]
    +
    +

    For example, if you want to install RealtimeTTS with only Azure Cognitive Services Speech, ElevenLabs, and OpenAI support:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Virtual Environment Installation

    +

    For those who want to perform a full installation within a virtual environment, follow these steps:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    More information about CUDA installation.

    +

    Engine Requirements

    +

    Different engines supported by RealtimeTTS have unique requirements. Ensure you fulfill these requirements based on the engine you choose.

    +

    SystemEngine

    +

    The SystemEngine works out of the box with your system's built-in TTS capabilities. No additional setup is needed.

    +

    GTTSEngine

    +

    The GTTSEngine works out of the box using Google Translate's text-to-speech API. No additional setup is needed.

    +

    OpenAIEngine

    +

    To use the OpenAIEngine: +- set environment variable OPENAI_API_KEY +- install ffmpeg (see CUDA installation point 3)

    +

    AzureEngine

    +

    To use the AzureEngine, you will need: +- Microsoft Azure Text-to-Speech API key (provided via AzureEngine constructor parameter "speech_key" or in the environment variable AZURE_SPEECH_KEY) +- Microsoft Azure service region.

    +

    Make sure you have these credentials available and correctly configured when initializing the AzureEngine.

    +

    ElevenlabsEngine

    +

    For the ElevenlabsEngine, you need: +- Elevenlabs API key (provided via ElevenlabsEngine constructor parameter "api_key" or in the environment variable ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 Installing mpv: + - macOS: + brew install mpv

    +
      +
    • Linux and Windows: Visit mpv.io for installation instructions.
    • +
    +

    CoquiEngine

    +

    Delivers high quality, local, neural TTS with voice-cloning.

    +

    Downloads a neural TTS model first. In most cases it be fast enough for Realtime using GPU synthesis. Needs around 4-5 GB VRAM.

    +
      +
    • to clone a voice submit the filename of a wave file containing the source voice as "voice" parameter to the CoquiEngine constructor
    • +
    • voice cloning works best with a 22050 Hz mono 16bit WAV file containing a short (~5-30 sec) sample
    • +
    +

    On most systems GPU support will be needed to run fast enough for realtime, otherwise you will experience stuttering.

    +

    CUDA installation

    +

    These steps are recommended for those who require better performance and have a compatible NVIDIA GPU.

    +
    +

    Note: to check if your NVIDIA GPU supports CUDA, visit the official CUDA GPUs list.

    +
    +

    To use a torch with support via CUDA please follow these steps:

    +
    +

    Note: newer pytorch installations may (unverified) not need Toolkit (and possibly cuDNN) installation anymore.

    +
    +
      +
    1. +

      Install NVIDIA CUDA Toolkit: + For example, to install Toolkit 12.X, please

      +
        +
      • Visit NVIDIA CUDA Downloads.
      • +
      • Select your operating system, system architecture, and os version.
      • +
      • Download and install the software.
      • +
      +

      or to install Toolkit 11.8, please +- Visit NVIDIA CUDA Toolkit Archive. +- Select your operating system, system architecture, and os version. +- Download and install the software.

      +
    2. +
    3. +

      Install NVIDIA cuDNN:

      +

      For example, to install cuDNN 8.7.0 for CUDA 11.x please +- Visit NVIDIA cuDNN Archive. +- Click on "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Download and install the software.

      +
    4. +
    5. +

      Install ffmpeg:

      +

      You can download an installer for your OS from the ffmpeg Website.

      +

      Or use a package manager:

      +
        +
      • +

        On Ubuntu or Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        On Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        On MacOS using Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        On Windows using Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        On Windows using Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Install PyTorch with CUDA support:

      +

      To upgrade your PyTorch installation to enable GPU support with CUDA, follow these instructions based on your specific CUDA version. This is useful if you wish to enhance the performance of RealtimeSTT with CUDA capabilities.

      +
        +
      • +

        For CUDA 11.8:

        +

        To update PyTorch and Torchaudio to support CUDA 11.8, use the following commands:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        For CUDA 12.X:

        +

        To update PyTorch and Torchaudio to support CUDA 12.X, execute the following:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Replace 2.3.1 with the version of PyTorch that matches your system and requirements.

      +
    8. +
    9. +

      Fix for to resolve compatibility issues: + If you run into library compatibility issues, try setting these libraries to fixed versions:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/en/usage/index.html b/zh/en/usage/index.html new file mode 100755 index 0000000..4fd66cd --- /dev/null +++ b/zh/en/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + English - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Usage

    +

    Quick Start

    +

    Here's a basic usage example:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Feed Text

    +

    You can feed individual strings:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Or you can feed generators and character iterators for real-time streaming:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Playback

    +

    Asynchronously:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    Synchronously:

    +
    stream.play()
    +
    +

    Testing the Library

    +

    The test subdirectory contains a set of scripts to help you evaluate and understand the capabilities of the RealtimeTTS library.

    +

    Note that most of the tests still rely on the "old" OpenAI API (<1.0.0). Usage of the new OpenAI API is demonstrated in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description: A "hello world" styled demonstration of the library's simplest usage.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description: A comprehensive demonstration showcasing most of the features provided by the library.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description: Test of local coqui TTS engine.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Real-time translations into six different languages.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: Wake word activated and voice based user interface to the OpenAI API.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencies: Run pip install openai keyboard realtimestt.
      • +
      • Description: Choose TTS engine and voice before starting AI conversation.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencies: Run pip install openai realtimestt.
      • +
      • Description: A basic talkbot in 20 lines of code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Simple demonstration of how to integrate the library with large language models (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencies: Run pip install openai.
      • +
      • Description: Showcases the callbacks and lets you check the latency times in a real-world application environment.
      • +
      +
    • +
    +

    Pause, Resume & Stop

    +

    Pause the audio stream:

    +
    stream.pause()
    +
    +

    Resume a paused stream:

    +
    stream.resume()
    +
    +

    Stop the stream immediately:

    +
    stream.stop()
    +
    +

    Requirements Explained

    +
      +
    • Python Version:
    • +
    • Required: Python >= 3.9, < 3.13
    • +
    • +

      Reason: The library depends on the GitHub library "TTS" from coqui, which requires Python versions in this range.

      +
    • +
    • +

      PyAudio: to create an output audio stream

      +
    • +
    • +

      stream2sentence: to split the incoming text stream into sentences

      +
    • +
    • +

      pyttsx3: System text-to-speech conversion engine

      +
    • +
    • +

      pydub: to convert audio chunk formats

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure text-to-speech conversion engine

      +
    • +
    • +

      elevenlabs: Elevenlabs text-to-speech conversion engine

      +
    • +
    • +

      coqui-TTS: Coqui's XTTS text-to-speech library for high-quality local neural TTS

      +
    • +
    +

    Shoutout to Idiap Research Institute for maintaining a fork of coqui tts.

    +
      +
    • +

      openai: to interact with OpenAI's TTS API

      +
    • +
    • +

      gtts: Google translate text-to-speech conversion

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/es/api/index.html b/zh/es/api/index.html new file mode 100755 index 0000000..7732732 --- /dev/null +++ b/zh/es/api/index.html @@ -0,0 +1,2922 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    TextToAudioStream - Documentación en Español

    +

    Configuración

    +

    Parámetros de Inicialización para TextToAudioStream

    +

    Cuando inicializa la clase TextToAudioStream, tiene varias opciones para personalizar su comportamiento. Aquí están los parámetros disponibles:

    +

    Parámetros Principales

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Requerido: Sí
    • +
    • Descripción: El motor subyacente responsable de la síntesis de texto a audio. Debe proporcionar una instancia de BaseEngine o su subclase para habilitar la síntesis de audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando comienza el flujo de texto. Utilícela para cualquier configuración o registro que pueda necesitar.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se activa cuando finaliza el flujo de texto. Puede utilizarla para tareas de limpieza o registro.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se invoca cuando comienza el flujo de audio. Útil para actualizaciones de UI o registro de eventos.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se detiene el flujo de audio. Ideal para limpieza de recursos o tareas de post-procesamiento.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Función callable
    • +
    • Requerido: No
    • +
    • Descripción: Esta función de callback opcional se llama cuando se procesa un solo carácter.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: None
    • +
    • Descripción: Especifica el índice del dispositivo de salida a utilizar. None usa el dispositivo predeterminado.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: nltk
    • +
    • Descripción: Tokenizador a utilizar para la división de oraciones (actualmente se admiten "nltk" y "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: String
    • +
    • Requerido: No
    • +
    • Valor predeterminado: en
    • +
    • Descripción: Idioma a utilizar para la división de oraciones.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Requerido: No
    • +
    • Valor predeterminado: False
    • +
    • Descripción: Parámetro global de silencio. Si es True, no se abrirá ningún flujo pyAudio. Deshabilita la reproducción de audio a través de los altavoces locales.
    • +
    +

    level (int)

    +
      +
    • Tipo: Entero
    • +
    • Requerido: No
    • +
    • Valor predeterminado: logging.WARNING
    • +
    • Descripción: Establece el nivel de registro para el registrador interno. Puede ser cualquier constante entera del módulo logging incorporado de Python.
    • +
    +

    Ejemplo de Uso

    +
    engine = YourEngine()  # Sustituya con su motor
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Métodos

    +

    play y play_async

    +

    Estos métodos son responsables de ejecutar la síntesis de texto a audio y reproducir el flujo de audio. La diferencia es que play es una función bloqueante, mientras que play_async se ejecuta en un hilo separado, permitiendo que otras operaciones continúen.

    +

    Parámetros de Reproducción

    +

    fast_sentence_fragment (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Cuando se establece en True, el método priorizará la velocidad, generando y reproduciendo fragmentos de oraciones más rápidamente.
    • +
    +

    fast_sentence_fragment_allsentences (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, aplica el procesamiento rápido de fragmentos de oraciones a todas las oraciones.
    • +
    +

    fast_sentence_fragment_allsentences_multiple (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando se establece en True, permite generar múltiples fragmentos de oraciones.
    • +
    +

    buffer_threshold_seconds (float)

    +
      +
    • Valor predeterminado: 0.0
    • +
    • Descripción: Especifica el tiempo en segundos para el umbral de búfer.
    • +
    +

    Cómo funciona: Antes de sintetizar una nueva oración, el sistema verifica si queda más material de audio en el búfer que el tiempo especificado. Un valor más alto asegura que haya más audio pre-almacenado en el búfer.

    +

    minimum_sentence_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: Establece la longitud mínima de caracteres para considerar una cadena como una oración.
    • +
    +

    minimum_first_fragment_length (int)

    +
      +
    • Valor predeterminado: 10
    • +
    • Descripción: El número mínimo de caracteres requeridos para el primer fragmento de oración.
    • +
    +

    log_synthesized_text (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Cuando está habilitado, registra los fragmentos de texto sintetizados.
    • +
    +

    reset_generated_text (bool)

    +
      +
    • Valor predeterminado: True
    • +
    • Descripción: Si es True, reinicia el texto generado antes del procesamiento.
    • +
    +

    output_wavfile (str)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Si se establece, guarda el audio en el archivo WAV especificado.
    • +
    +

    Funciones de Callback

    +

    on_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama después de sintetizar un fragmento de oración.
    • +
    +

    before_sentence_synthesized (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama antes de sintetizar un fragmento de oración.
    • +
    +

    on_audio_chunk (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Se llama cuando un fragmento de audio está listo.
    • +
    +

    Configuración de Tokenización

    +

    tokenizer (str)

    +
      +
    • Valor predeterminado: "nltk"
    • +
    • Descripción: Tokenizador para la división de oraciones. Admite "nltk" y "stanza".
    • +
    +

    tokenize_sentences (callable)

    +
      +
    • Valor predeterminado: None
    • +
    • Descripción: Función personalizada para tokenizar oraciones del texto de entrada.
    • +
    +

    language (str)

    +
      +
    • Valor predeterminado: "en"
    • +
    • Descripción: Idioma para la división de oraciones.
    • +
    +

    Parámetros de Contexto

    +

    context_size (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Caracteres utilizados para establecer el contexto de límites de oraciones.
    • +
    +

    context_size_look_overhead (int)

    +
      +
    • Valor predeterminado: 12
    • +
    • Descripción: Tamaño de contexto adicional para mirar hacia adelante.
    • +
    +

    Otros Parámetros

    +

    muted (bool)

    +
      +
    • Valor predeterminado: False
    • +
    • Descripción: Deshabilita la reproducción de audio local si es True.
    • +
    +

    sentence_fragment_delimiters (str)

    +
      +
    • Valor predeterminado: ".?!;:,\n…)]}。-"
    • +
    • Descripción: Caracteres considerados como delimitadores de oraciones.
    • +
    +

    force_first_fragment_after_words (int)

    +
      +
    • Valor predeterminado: 15
    • +
    • Descripción: Número de palabras después de las cuales se fuerza el primer fragmento.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/es/contributing/index.html b/zh/es/contributing/index.html new file mode 100755 index 0000000..cdaddc7 --- /dev/null +++ b/zh/es/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuir a RealtimeTTS

    +

    Agradecemos cualquier contribución a RealtimeTTS. Aquí tienes algunas formas de contribuir:

    +
      +
    1. +

      Informar de errores: Si encuentras un error, por favor abre una incidencia en nuestro repositorio GitHub.

      +
    2. +
    3. +

      Sugerir mejoras: ¿Tienes ideas para nuevas funciones o mejoras? Nos encantaría escucharlas. Abre una incidencia para sugerir mejoras.

      +
    4. +
    5. +

      Contribuciones de código: ¿Quieres añadir una nueva función o corregir un error? ¡Perfecto! Sigue estos pasos:

      +
    6. +
    7. Abre el repositorio
    8. +
    9. Crea una nueva rama para tu función
    10. +
    11. Realice los cambios
    12. +
    13. +

      Envía un pull request con una descripción clara de tus cambios

      +
    14. +
    15. +

      Documentación: Ayúdanos a mejorar nuestra documentación corrigiendo erratas, añadiendo ejemplos o aclarando secciones confusas.

      +
    16. +
    17. +

      Añadir nuevos motores: Si quieres añadir soporte para un nuevo motor TTS, por favor abre una incidencia primero para discutir la implementación.

      +
    18. +
    +

    Gracias por ayudarnos a mejorar RealtimeTTS.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/es/faq/index.html b/zh/es/faq/index.html new file mode 100755 index 0000000..92be332 --- /dev/null +++ b/zh/es/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Preguntas frecuentes

    +

    Para obtener respuestas a las preguntas más frecuentes sobre RealtimeTTS, consulta nuestra página de preguntas frecuentes en GitHub.

    +

    Esta página cubre varios temas, entre ellos

    +
      +
    • Uso de diferentes motores TTS
    • +
    • Tratamiento de textos multilingües
    • +
    • Optimización del rendimiento
    • +
    • Solución de problemas comunes
    • +
    +

    Para obtener información más detallada, visite el enlace anterior.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/es/index.html b/zh/es/index.html new file mode 100755 index 0000000..bd3b402 --- /dev/null +++ b/zh/es/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    *Biblioteca de conversión de texto en voz fácil de usar y de baja latencia para aplicaciones en tiempo real.

    +

    Acerca del proyecto

    +

    RealtimeTTS es una biblioteca de texto a voz (TTS) de última generación diseñada para aplicaciones en tiempo real. Destaca por su capacidad para convertir rápidamente flujos de texto en salida auditiva de alta calidad con una latencia mínima.

    +

    Características principales

    +
      +
    • Baja latencia: conversión de texto a voz casi instantánea, compatible con salidas LLM.
    • +
    • Audio de alta calidad**: genera un habla clara y natural.
    • +
    • Compatible con múltiples motores TTS**: compatible con OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS y System TTS
    • +
    • Multilingüe
    • +
    • Robusto y fiable**: garantiza un funcionamiento continuo gracias a un mecanismo de reserva que cambia a motores alternativos en caso de interrupciones, lo que garantiza un rendimiento y una fiabilidad constantes.
    • +
    +

    Para obtener instrucciones de instalación, ejemplos de uso y referencias de la API, navegue por la documentación utilizando la barra lateral.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/es/installation/index.html b/zh/es/installation/index.html new file mode 100755 index 0000000..df71f04 --- /dev/null +++ b/zh/es/installation/index.html @@ -0,0 +1,2243 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Español

    + +
    +

    Nota: Ya no se recomienda la instalación básica con pip install realtimetts, use pip install realtimetts[all] en su lugar.

    +
    +

    La biblioteca RealtimeTTS proporciona opciones de instalación para varias dependencias según su caso de uso. Aquí están las diferentes formas en que puede instalar RealtimeTTS según sus necesidades:

    +

    Instalación Completa

    +

    Para instalar RealtimeTTS con soporte para todos los motores de TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Instalación Personalizada

    +

    RealtimeTTS permite una instalación personalizada con instalaciones mínimas de bibliotecas. Estas son las opciones disponibles: +- all: Instalación completa con todos los motores soportados. +- system: Incluye capacidades de TTS específicas del sistema (por ejemplo, pyttsx3). +- azure: Agrega soporte para Azure Cognitive Services Speech. +- elevenlabs: Incluye integración con la API de ElevenLabs. +- openai: Para servicios de voz de OpenAI. +- gtts: Soporte para Google Text-to-Speech. +- coqui: Instala el motor Coqui TTS. +- minimal: Instala solo los requisitos base sin motor (solo necesario si desea desarrollar un motor propio)

    +

    Por ejemplo, si desea instalar RealtimeTTS solo para uso local de Coqui TTS neuronal, debe usar:

    +
    pip install realtimetts[coqui]
    +
    +

    Si desea instalar RealtimeTTS solo con Azure Cognitive Services Speech, ElevenLabs y soporte de OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Instalación en Entorno Virtual

    +

    Para aquellos que deseen realizar una instalación completa dentro de un entorno virtual, sigan estos pasos:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Más información sobre instalación de CUDA.

    +

    Requisitos de los Motores

    +

    Los diferentes motores soportados por RealtimeTTS tienen requisitos únicos. Asegúrese de cumplir con estos requisitos según el motor que elija.

    +

    SystemEngine

    +

    El SystemEngine funciona de inmediato con las capacidades de TTS incorporadas en su sistema. No se necesita configuración adicional.

    +

    GTTSEngine

    +

    El GTTSEngine funciona de inmediato usando la API de texto a voz de Google Translate. No se necesita configuración adicional.

    +

    OpenAIEngine

    +

    Para usar el OpenAIEngine: +- configure la variable de entorno OPENAI_API_KEY +- instale ffmpeg (ver instalación de CUDA punto 3)

    +

    AzureEngine

    +

    Para usar el AzureEngine, necesitará: +- Clave API de Microsoft Azure Text-to-Speech (proporcionada a través del parámetro "speech_key" del constructor AzureEngine o en la variable de entorno AZURE_SPEECH_KEY) +- Región de servicio de Microsoft Azure.

    +

    Asegúrese de tener estas credenciales disponibles y correctamente configuradas al inicializar el AzureEngine.

    +

    ElevenlabsEngine

    +

    Para el ElevenlabsEngine, necesita: +- Clave API de Elevenlabs (proporcionada a través del parámetro "api_key" del constructor ElevenlabsEngine o en la variable de entorno ELEVENLABS_API_KEY) +- mpv instalado en su sistema (esencial para transmitir audio mpeg, Elevenlabs solo entrega mpeg).

    +

    🔹 Instalación de mpv: + - macOS: + brew install mpv

    +
      +
    • Linux y Windows: Visite mpv.io para instrucciones de instalación.
    • +
    +

    CoquiEngine

    +

    Proporciona TTS neuronal local de alta calidad con clonación de voz.

    +

    Descarga primero un modelo neuronal TTS. En la mayoría de los casos, será lo suficientemente rápido para tiempo real usando síntesis GPU. Necesita alrededor de 4-5 GB de VRAM.

    +
      +
    • para clonar una voz, envíe el nombre del archivo de un archivo wave que contenga la voz fuente como parámetro "voice" al constructor CoquiEngine
    • +
    • la clonación de voz funciona mejor con un archivo WAV mono de 16 bits a 22050 Hz que contenga una muestra corta (~5-30 seg)
    • +
    +

    En la mayoría de los sistemas, se necesitará soporte de GPU para ejecutarse lo suficientemente rápido en tiempo real, de lo contrario experimentará tartamudeo.

    +

    Instalación de CUDA

    +

    Estos pasos son recomendados para aquellos que requieren mejor rendimiento y tienen una GPU NVIDIA compatible.

    +
    +

    Nota: para verificar si su GPU NVIDIA es compatible con CUDA, visite la lista oficial de GPUs CUDA.

    +
    +

    Para usar torch con soporte vía CUDA, siga estos pasos:

    +
    +

    Nota: las instalaciones más nuevas de pytorch pueden (no verificado) no necesitar la instalación de Toolkit (y posiblemente cuDNN).

    +
    +
      +
    1. +

      Instalar NVIDIA CUDA Toolkit: + Por ejemplo, para instalar Toolkit 12.X, por favor

      +
        +
      • Visite NVIDIA CUDA Downloads.
      • +
      • Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo.
      • +
      • Descargue e instale el software.
      • +
      +

      o para instalar Toolkit 11.8, por favor +- Visite NVIDIA CUDA Toolkit Archive. +- Seleccione su sistema operativo, arquitectura del sistema y versión del sistema operativo. +- Descargue e instale el software.

      +
    2. +
    3. +

      Instalar NVIDIA cuDNN:

      +

      Por ejemplo, para instalar cuDNN 8.7.0 para CUDA 11.x por favor +- Visite NVIDIA cuDNN Archive. +- Haga clic en "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x". +- Descargue e instale el software.

      +
    4. +
    5. +

      Instalar ffmpeg:

      +

      Puede descargar un instalador para su sistema operativo desde el sitio web de ffmpeg.

      +

      O usar un gestor de paquetes:

      +
        +
      • +

        En Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        En Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        En MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        En Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        En Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Instalar PyTorch con soporte CUDA:

      +

      Para actualizar su instalación de PyTorch y habilitar el soporte de GPU con CUDA, siga estas instrucciones según su versión específica de CUDA. Esto es útil si desea mejorar el rendimiento de RealtimeSTT con capacidades CUDA.

      +
        +
      • +

        Para CUDA 11.8:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 11.8, use los siguientes comandos:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Para CUDA 12.X:

        +

        Para actualizar PyTorch y Torchaudio para soportar CUDA 12.X, ejecute lo siguiente:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Reemplace 2.3.1 con la versión de PyTorch que coincida con su sistema y requisitos.

      +
    8. +
    9. +

      Solución para resolver problemas de compatibilidad: + Si encuentra problemas de compatibilidad de bibliotecas, intente establecer estas bibliotecas en versiones fijas:

      +

      pip install networkx==2.8.8 +pip install typing_extensions==4.8.0 +pip install fsspec==2023.6.0 +pip install imageio==2.31.6 +pip install networkx==2.8.8 +pip install numpy==1.24.3 +pip install requests==2.31.0

      +
    10. +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/es/usage/index.html b/zh/es/usage/index.html new file mode 100755 index 0000000..74bbff0 --- /dev/null +++ b/zh/es/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Español - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Uso

    +

    Inicio Rápido

    +

    Aquí hay un ejemplo básico de uso:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # replace with your TTS engine
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Alimentar Texto

    +

    Puede alimentar cadenas individuales:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    O puede alimentar generadores e iteradores de caracteres para la transmisión en tiempo real:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Reproducción

    +

    De forma asíncrona:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    De forma síncrona:

    +
    stream.play()
    +
    +

    Prueba de la Biblioteca

    +

    El subdirectorio de pruebas contiene un conjunto de scripts para ayudarte a evaluar y comprender las capacidades de la biblioteca RealtimeTTS.

    +

    Ten en cuenta que la mayoría de las pruebas aún dependen de la API "antigua" de OpenAI (<1.0.0). El uso de la nueva API de OpenAI se demuestra en openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descripción: Una demostración tipo "hola mundo" del uso más simple de la biblioteca.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descripción: Una demostración completa que muestra la mayoría de las características proporcionadas por la biblioteca.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descripción: Prueba del motor local coqui TTS.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Traducciones en tiempo real a seis idiomas diferentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Interfaz de usuario activada por palabra clave y basada en voz para la API de OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dependencias: Ejecutar pip install openai keyboard realtimestt.
      • +
      • Descripción: Elija el motor TTS y la voz antes de iniciar la conversación con IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dependencias: Ejecutar pip install openai realtimestt.
      • +
      • Descripción: Un talkbot básico en 20 líneas de código.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Demostración simple de cómo integrar la biblioteca con modelos de lenguaje grande (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dependencias: Ejecutar pip install openai.
      • +
      • Descripción: Muestra los callbacks y te permite verificar los tiempos de latencia en un entorno de aplicación del mundo real.
      • +
      +
    • +
    +

    Pausar, Reanudar y Detener

    +

    Pausar el flujo de audio:

    +
    stream.pause()
    +
    +

    Reanudar un flujo pausado:

    +
    stream.resume()
    +
    +

    Detener el flujo inmediatamente:

    +
    stream.stop()
    +
    +

    Requisitos Explicados

    +
      +
    • Versión de Python:
    • +
    • Requerido: Python >= 3.9, < 3.13
    • +
    • +

      Razón: La biblioteca depende de la biblioteca GitHub "TTS" de coqui, que requiere versiones de Python en este rango.

      +
    • +
    • +

      PyAudio: para crear un flujo de audio de salida

      +
    • +
    • +

      stream2sentence: para dividir el flujo de texto entrante en oraciones

      +
    • +
    • +

      pyttsx3: Motor de conversión de texto a voz del sistema

      +
    • +
    • +

      pydub: para convertir formatos de fragmentos de audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motor de conversión de texto a voz de Azure

      +
    • +
    • +

      elevenlabs: Motor de conversión de texto a voz de Elevenlabs

      +
    • +
    • +

      coqui-TTS: Biblioteca de texto a voz XTTS de Coqui para TTS neuronal local de alta calidad

      +
    • +
    +

    Agradecimiento especial al Instituto de Investigación Idiap por mantener un fork de coqui tts.

    +
      +
    • +

      openai: para interactuar con la API TTS de OpenAI

      +
    • +
    • +

      gtts: Conversión de texto a voz de Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/faq/index.html b/zh/faq/index.html new file mode 100755 index 0000000..3a46b0d --- /dev/null +++ b/zh/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    常见问题

    +

    有关 RealtimeTTS 常见问题的解答,请参阅我们的 GitHub 上的常见问题页面

    +

    该页面涵盖各种主题,包括

    +
      +
    • 不同 TTS 引擎的使用
    • +
    • 处理多语言文本
    • +
    • 性能优化
    • +
    • 常见问题的故障排除
    • +
    +

    更多详细信息,请访问以上链接。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/fr/api/index.html b/zh/fr/api/index.html new file mode 100755 index 0000000..eb5552e --- /dev/null +++ b/zh/fr/api/index.html @@ -0,0 +1,2839 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Français

    + +

    Configuration

    +

    Paramètres d'initialisation pour `TextToAudioStream

    +

    Lorsque vous initialisez la classe TextToAudioStream, vous disposez de diverses options pour personnaliser son comportement. Voici les paramètres disponibles :

    +

    `(BaseEngine)

    +
      +
    • Type: BaseEngine
    • +
    • Obligatoire: Oui
    • +
    • Description : Le moteur sous-jacent responsable de la synthèse texte-audio. Vous devez fournir une instance de ine ou sa sous-classe pour permettre la synthèse audio.
    • +
    +

    _text_stream_start (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est déclenchée lorsque le flux de texte commence. Utilisez-le pour toute configuration ou journalisation dont vous pourriez avoir besoin.
    • +
    +

    _text_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est activée à la fin du flux de texte. Vous pouvez l'utiliser pour des tâches de nettoyage ou de journalisation.
    • +
    +

    _audio_stream_start` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel facultative est invoquée au démarrage du flux audio. Utile pour les mises à jour de l'interface utilisateur ou la journalisation des événements.
    • +
    +

    _audio_stream_stop (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsque le flux audio s'arrête. Idéal pour les tâches de nettoyage des ressources ou de post-traitement.
    • +
    +

    on_character` (appelable)

    +
      +
    • Type: Fonction appelable
    • +
    • Obligatoire: Non
    • +
    • Description : Cette fonction de rappel optionnelle est appelée lorsqu'un seul caractère est traité.
    • +
    +

    _device_index (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Aucun
    • +
    • Description : Spécifie l'index du périphérique de sortie à utiliser. Aucun n'utilise le périphérique par défaut.
    • +
    +

    (tokenizer(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: nltk
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases (actuellement « nltk » et « stroza » sont pris en charge).
    • +
    +

    `language(chaîne)

    +
      +
    • Type: Chaîne
    • +
    • Obligatoire: Non
    • +
    • Par défaut: fr
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +

    muted(bool)

    +
      +
    • Type: Bool
    • +
    • Obligatoire: Non
    • +
    • Par défaut: Faux
    • +
    • Description : Paramètre global coupé. Si True, aucun flux pyAudio ne sera ouvert. Désactive la lecture audio via des haut-parleurs locaux (au cas où vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio) et remplace le paramètre de mise en sourdine des paramètres de lecture.
    • +
    +

    level (int)

    +
      +
    • Type: Entier
    • +
    • Obligatoire: Non
    • +
    • Défaut:logging.AVERTISSEMENT
    • +
    • Description : Définit le niveau de journalisation pour l'enregistreur interne. Cela peut être n'importe quelle constante entière du module ging intégré de Python.
    • +
    +

    Exemple d'utilisation :

    +

    ``(`python +moteur = YourEngine () # Remplacez-vous par votre moteur +flux = TextToAudioStream( + moteur=engine, + on_text_stream_start=my_text_start_func, + on_text_stream_stop=my_text_stop_func, + on_audio_stream_start=my_audio_start_func, + on_audio_stream_stop=my_audio_stop_func, + niveau=logging.INFO +)

    +

    Méthodes

    +

    play etplay_async`

    +

    Ces méthodes sont responsables de l'exécution de la synthèse texte-audio et de la lecture du flux audio. La différence est que play est une fonction de blocage, tandis que play_async s'exécute dans un thread séparé, permettant à d'autres opérations de se poursuivre.

    +
    Paramètres :
    +
    fast_sentence_fragment (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Lorsqu'elle est définie sur True, la méthode donnera la priorité à la vitesse, générant et jouant plus rapidement des fragments de phrases. Ceci est utile pour les applications où la latence est importante.
    • +
    +
    fast_sentence_fragment_allsentences(bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, applique le traitement rapide des fragments de phrase à toutes les phrases, pas seulement à la première.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est défini sur True, permet de produire plusieurs fragments de phrase au lieu d'un seul.
    • +
    +
    _threshold_seconds (flotteur)
    +
      +
    • Par défaut: 0.0
    • +
    • +

      Description : Spécifie le temps en secondes pour le seuil de mise en mémoire tampon, ce qui a un impact sur la douceur et la continuité de la lecture audio.

      +
    • +
    • +

      Comment ça marche : Avant de synthétiser une nouvelle phrase, le système vérifie s'il reste plus de matériel audio dans le tampon que le temps spécifié par buffer_threshold_seconds. Si tel est le cas, il récupère une autre phrase du générateur de texte, en supposant qu'il peut récupérer et synthétiser cette nouvelle phrase dans la fenêtre temporelle fournie par l'audio restant dans le tampon. Ce processus permet au moteur de synthèse vocale d'avoir plus de contexte pour une meilleure synthèse, améliorant ainsi l'expérience utilisateur.

      +
    • +
    +

    Une valeur plus élevée garantit qu'il y a plus d'audio pré-tamponné, réduisant ainsi le risque de silence ou de lacunes pendant la lecture. Si vous rencontrez des pauses ou des pauses, envisagez d'augmenter cette valeur.

    +
    _sentence_length (int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Définit la longueur minimale des caractères pour considérer une chaîne comme une phrase à synthétiser. Cela affecte la façon dont les morceaux de texte sont traités et lus.
    • +
    +
    _first_fragment_length(int)
    +
      +
    • Par défaut: 10
    • +
    • Description : Le nombre minimum de caractères requis pour le premier fragment de phrase avant de céder.
    • +
    +
    _synthesized_text (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Lorsqu'il est activé, enregistre les morceaux de texte au fur et à mesure de leur synthèse en audio. Utile pour l'audit et le débogage.
    • +
    +
    #reset_generated_text` (bool)
    +
      +
    • Par défaut: True
    • +
    • Description : Si Vrai, réinitialisez le texte généré avant le traitement.
    • +
    +
    _wavfile (str)
    +
      +
    • Par défaut: None
    • +
    • Description : Si défini, enregistrez l'audio dans le fichier WAV spécifié.
    • +
    +
    `_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel appelée après un seul fragment de phrase a été synthétisée.
    • +
    +
    before`_sentence_synthesized (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction de rappel qui est appelée avant qu'un seul fragment de phrase ne soit synthétisé.
    • +
    +
    _audio_chunk (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Fonction de rappel qui est appelée lorsqu'un seul morceau audio est prêt.
    • +
    +
    ```(str)
    +
      +
    • Par défaut:"nltk"
    • +
    • Description : Tokenizer à utiliser pour le fractionnement des phrases. Prend actuellement en charge « nltk » et « stroza ».
    • +
    +
    _sentences (appelable)
    +
      +
    • Par défaut: None
    • +
    • Description : Une fonction personnalisée qui tokenise les phrases du texte saisi. Vous pouvez fournir votre propre tokenizer léger si vous n'êtes pas satisfait de nltk et stanza. Il doit prendre du texte comme chaîne et renvoyer des phrases divisées comme liste de chaînes.
    • +
    +
    angu(str)
    +
      +
    • Par défaut:"en"
    • +
    • Description : Langue à utiliser pour le fractionnement des phrases.
    • +
    +
    _size(int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Le nombre de caractères utilisés pour établir le contexte pour la détection des limites de phrase. Un contexte plus large améliore la précision de la détection des limites des phrases.
    • +
    +
    _size_look_overhead (int)
    +
      +
    • Par défaut: 12
    • +
    • Description : Taille de contexte supplémentaire pour regarder vers l'avenir lors de la détection des limites des phrases.
    • +
    +
    mute (bool)
    +
      +
    • Par défaut: False
    • +
    • Description : Si vrai, désactive la lecture audio via des haut-parleurs locaux. Utile lorsque vous souhaitez synthétiser dans un fichier ou traiter des morceaux audio sans les lire.
    • +
    +
    ence_fragment_delimiters (str)
    +
      +
    • Par défaut:"?!;::\n...)]}-
    • +
    • Description : Une chaîne de caractères qui sont considérés comme des délimiteurs de phrases.
    • +
    +
    _first_fragment_after_words (int)
    +
      +
    • Par défaut: 15
    • +
    • Description : Le nombre de mots après lesquels le fragment de la première phrase est forcé d'être donné.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/fr/contributing/index.html b/zh/fr/contributing/index.html new file mode 100755 index 0000000..06f12ba --- /dev/null +++ b/zh/fr/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuer à RealtimeTTS

    +

    Nous accueillons les contributions à RealtimeTTS ! Voici quelques façons dont vous pouvez contribuer :

    +
      +
    1. +

      Reporting Bugs : Si vous trouvez un bug, veuillez ouvrir un problème sur notre référentiel GitHub.

      +
    2. +
    3. +

      ** Suggestion d'améliorations** : Vous avez des idées de nouvelles fonctionnalités ou d'améliorations ? Nous serions ravis de les entendre ! Ouvrez un numéro pour suggérer des améliorations.

      +
    4. +
    5. +

      Code Contributions : Vous voulez ajouter une nouvelle fonctionnalité ou corriger un bug ? Super ! Veuillez suivre ces étapes :

      +
    6. +
    7. Fourcher le dépôt
    8. +
    9. Créez une nouvelle branche pour votre fonctionnalité
    10. +
    11. Faites vos changements
    12. +
    13. +

      Soumettez une demande pull avec une description claire de vos modifications

      +
    14. +
    15. +

      Documentation : Aidez-nous à améliorer notre documentation en corrigeant les fautes de frappe, en ajoutant des exemples ou en clarifiant les sections déroutantes.

      +
    16. +
    17. +

      Ajout de nouveaux moteurs : Si vous souhaitez ajouter la prise en charge d'un nouveau moteur TTS, veuillez d'abord ouvrir un numéro pour discuter de l'implémentation.

      +
    18. +
    +

    Merci d'avoir contribué à rendre RealtimeTTS meilleur !

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/fr/faq/index.html b/zh/fr/faq/index.html new file mode 100755 index 0000000..22caf46 --- /dev/null +++ b/zh/fr/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Foire aux questions

    +

    Pour les réponses aux questions fréquemment posées sur RealtimeTTS, veuillez vous référer à notre page FAQ sur GitHub.

    +

    Cette page couvre divers sujets dont

    +
      +
    • Utilisation de différents moteurs TTS
    • +
    • Manipulation de textes multilingues
    • +
    • Optimisation des performances
    • +
    • Dépannage des problèmes courants
    • +
    +

    Pour des informations plus détaillées, veuillez consulter le lien ci-dessus.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/fr/index.html b/zh/fr/index.html new file mode 100755 index 0000000..ff5e0f3 --- /dev/null +++ b/zh/fr/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Bibliothèque de synthèse vocale à faible latence et facile à utiliser pour les applications en temps réel

    +

    À propos du projet

    +

    RealtimeTTS est une bibliothèque de synthèse vocale (TTS) de pointe conçue pour les applications en temps réel. Elle se distingue par sa capacité à convertir des flux de texte en sortie auditive de haute qualité avec une latence minimale.

    +

    Caractéristiques clés

    +
      +
    • Faible latence : conversion text-to-speech quasi-instantanée, compatible avec les sorties LLM
    • +
    • Audio de haute qualité : génère un discours clair et naturel
    • +
    • Support de plusieurs moteurs TTS : prend en charge OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS et System TTS
    • +
    • Multilingue
    • +
    • Robuste et fiable : garantit une opération continue grâce à un mécanisme de fallback, bascule vers des moteurs alternatifs en cas de perturbations, garantissant une performance et une fiabilité cohérentes
    • +
    +

    Pour les instructions d'installation, les exemples d'utilisation et la référence de l'API, veuillez naviguer à travers la documentation à l'aide du sidebar.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/fr/installation/index.html b/zh/fr/installation/index.html new file mode 100755 index 0000000..5b9f104 --- /dev/null +++ b/zh/fr/installation/index.html @@ -0,0 +1,2270 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Français

    + +
    +

    Remarque: Installation de base avec pip install realtimettss n'est plus recommandé, utilisez pip install realtimetts[all] à la place.

    +
    +

    La bibliothèque RealtimeTTS offre des options d'installation pour diverses dépendances pour votre cas d'utilisation. Voici les différentes façons dont vous pouvez installer RealtimeTTS en fonction de vos besoins :

    +

    Installation complète

    +

    Pour installer RealtimeTTS avec prise en charge de tous les moteurs TTS :

    +

    pip install -U realtimetts [tous]

    +

    Installation personnalisée

    +

    RealtimeTTS permet une installation personnalisée avec un minimum d'installations de bibliothèque. Voici les options disponibles : +- all : Installation complète avec chaque moteur pris en charge. +- ** système : Inclut les capacités TTS spécifiques au système (par exemple, pyttsx3). +- azure : ajoute le support vocal Azure Cognitive Services. +- elevenlabs : Comprend l'intégration avec l'API ElevenLabs. +- openai : Pour les services vocaux OpenAI. +- gtts : Prise en charge de Google Text-to-Speech. +- coqui : Installe le moteur Coqui TTS. +- minimal** : installe uniquement les exigences de base sans moteur (nécessaire uniquement si vous souhaitez développer votre propre moteur)

    +

    Supposons que vous souhaitiez installer RealtimeTTS uniquement pour l'utilisation neuronale locale de Coqui TTS, vous devez alors utiliser :

    +

    pip installez realtimetts [coqui]

    +

    Par exemple, si vous souhaitez installer RealtimeTTS avec uniquement Azure Cognitive Services Speech, ElevenLabs et la prise en charge d'OpenAI :

    +

    pip installez realtimetts[azure,elevenlabs,openai]

    +

    Installation de l'environnement virtuel

    +

    Pour ceux qui souhaitent effectuer une installation complète dans un environnement virtuel, procédez comme suit

    +

    python - m venv env_realtimetts +env_realtimetts\Scripts\activate.bat +python.exe - m pip install - upgrade pip +pip install -U realtimetts [tous]

    +

    Plus d'informations sur installation CUDA.

    +

    Exigences du moteur

    +

    Différents moteurs pris en charge par RealtimeTTS ont des exigences uniques. Assurez-vous de remplir ces exigences en fonction du moteur que vous choisissez.

    +

    Moteur système

    +

    Le `SystemEngine fonctionne dès le départ avec les capacités TTS intégrées de votre système. Aucune configuration supplémentaire n'est nécessaire.

    +

    GTTSEngine

    +

    Le GTTSEngine fonctionne dès le départ à l'aide de l'API de synthèse vocale de Google Translate. Aucune configuration supplémentaire n'est nécessaire.

    +

    OpenAIEngine

    +

    Pour utiliser le ``(OpenAIE): +- définir la variable d'environnement OPENAI_API_KEY +- installer ffmpeg (voir installation CUDA point 3)

    +

    AzureEngine

    +

    Pour utiliser le ine, vous aurez besoin de : +- Clé API Microsoft Azure Text-to-Speech (fournie via le paramètre constructeur AzureEngine « speech_key » ou dans la variable d'environnement AZURE_SPEECH_KEY) +- Région de service Microsoft Azure.

    +

    Assurez-vous d'avoir ces informations d'identification disponibles et correctement configurées lors de l'initialisation du AzureEngine.

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    ElevenlabsEngine

    +

    Pour le ElevenlabsEngine, vous avez besoin de: +- Clé API Elevenlabs (fournie via le paramètre constructeur ElevenlabsEngine « api_key » ou dans la variable d'environnement ELEVENLABS_API_KEY) +- mpv installed on your system (essential for streaming mpeg audio, Elevenlabs ne délivre que mpeg).

    +

    🔹 Installation v: + - macOS: + infuser installer mpv

    +
      +
    • Linux et Windows : Visitez mpv.io pour les instructions d'installation.
    • +
    +

    CoquiEngine

    +

    Offre un TTS neuronal local de haute qualité avec clonage vocal.

    +

    Télécharge d'abord un modèle TTS neuronal. Dans la plupart des cas, il est suffisamment rapide pour le temps réel utilisant la synthèse GPU. Nécessite environ 4 à 5 Go de VRAM.

    +
      +
    • pour cloner une voix, soumettez le nom de fichier d'un fichier d'onde contenant la voix source comme paramètre « voix » au constructeur CoquiEngine
    • +
    • le clonage vocal fonctionne mieux avec un fichier WAV mono 16 bits de 22 050 Hz contenant un échantillon court (~5 à 30 secondes)
    • +
    +

    Sur la plupart des systèmes, la prise en charge du GPU sera nécessaire pour fonctionner suffisamment rapidement en temps réel, sinon vous ferez l'expérience du bégaiement.

    +

    Installation CUDA

    +

    Ces étapes sont recommandées pour ceux qui ont besoin de ** meilleures performances ** et disposent d'un GPU NVIDIA compatible.

    +
    +

    Remarque : pour vérifier si votre GPU NVIDIA prend en charge CUDA, visitez la liste officielle des GPU CUDA.

    +
    +

    Pour utiliser une torche avec support via CUDA, veuillez suivre ces étapes :

    +
    +

    Remarque : les installations de pythorque plus récentes peuvent (non vérifié) n'ont plus besoin d'installation de Toolkit (et éventuellement de cuDNN).

    +
    +
      +
    1. +

      Installer NVIDIA CUDA Toolkit: + Par exemple, pour installer Toolkit 12.X, s'il te plaît

      +
        +
      • Visitez NVIDIA CUDA Téléchargements.
      • +
      • Sélectionnez votre système d'exploitation, votre architecture système et votre version os.
      • +
      • Téléchargez et installez le logiciel.
      • +
      +

      ou pour installer Toolkit 11.8, s'il vous plaît +- Visitez Archive de la boîte à outils CUDA NVIDIA. +- Sélectionnez votre système d'exploitation, votre architecture système et votre version os. +- Téléchargez et installez le logiciel.

      +
    2. +
    3. +

      Installer NVIDIA cuDNN:

      +

      Par exemple, pour installer cuDNN 8.7.0 pour CUDA 11. x s'il vous plaît +- Visitez NVIDIA cuDNN Archive. +- Cliquez sur « Télécharger cuDNN v8.7.0 (28 novembre 2022), pour CUDA 11.x ». +- Téléchargez et installez le logiciel.

      +
    4. +
    5. +

      Installer ffmpeg:

      +

      Vous pouvez télécharger un programme d'installation pour votre système d'exploitation à partir du site Web deffmpeg.

      +

      Ou utilisez un gestionnaire de packages :

      +
        +
      • +

        Sur Ubuntu ou Debian: + sudo apt update & & sudo apt install ffmpeg

        +
      • +
      • +

        Sur Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Sur MacOS utilisant Homebrew (https://brew.sh/): + infuser installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Chocolatey (https://chocolatey.org/): + choco installer ffmpeg

        +
      • +
      • +

        Sur Windows utilisant Scoop (https://scoop.sh/): + scoop installer ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installez PyTorch avec le support CUDA :

      +

      Pour mettre à niveau votre installation PyTorch afin d'activer le support GPU avec CUDA, suivez ces instructions en fonction de votre version CUDA spécifique. Ceci est utile si vous souhaitez améliorer les performances de RealtimeSTT avec les capacités CUDA.

      +
        +
      • +

        Pour CUDA 11.8:

        +

        Pour mettre à jour PyTorch et Torchaudio afin de prendre en charge CUDA 11.8, utilisez les commandes suivantes :

        +

        pip installe torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Pour CUDA 12.X:

        +

        Pour mettre à jour PyTorch et Torchaudio pour prendre en charge CUDA 12.X, exécutez ce qui suit :

        +

        pip installe torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Remplacer ` of PyTorch that matching your system and requirements.

      +
    8. +
    9. +

      ** Correction pour résoudre les problèmes de compatibilité** : + Si vous rencontrez des problèmes de compatibilité de bibliothèque, essayez de définir ces bibliothèques sur des versions fixes :

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/fr/usage/index.html b/zh/fr/usage/index.html new file mode 100755 index 0000000..4cb2a96 --- /dev/null +++ b/zh/fr/usage/index.html @@ -0,0 +1,2146 @@ + + + + + + + + + + + + + + + + + + + + + + + Français - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Utilisation

    +

    Démarrage rapide

    +

    Voici un exemple d'utilisation de base :

    +

    ```(python +depuis RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine

    +

    moteur = SystemEngine () # remplacer par votre moteur TTS +flux = TextToAudioStream(moteur) +stream.feed("Bonjour le monde! Comment ça va aujourd'hui ?") +stream.play_async() +``

    +

    Flux Texte

    +

    Vous pouvez alimenter des chaînes individuelles :

    +

    ``(`python +stream.feed(« Bonjour, c'est une phrase. »)

    +

    Ou vous pouvez alimenter des générateurs et des itérateurs de caractères pour le streaming en temps réel :

    +

    ```(python +def write (prompt : str) : + pour chunk en openai.ChatCompletion.create( + modèle="gpt-3.5-turbo", + messages=[{"role": "utilisateur", "contenu" : prompt}], + stream=True + ): + si (text_chunk := chunk[« choix »][0][« delta »].get(« contenu »)) n'est pas Aucun : + produire du texte_chunk

    +

    text_stream = write (« Un discours relaxant en trois phrases »)

    +

    stream.feed(text_stream) +``

    +

    ``(`python +char_iterator = iter (« Diffusion de ce personnage par personnage ») +stream.feed (char_iterator)

    +

    Layback

    +

    Asynchrone:

    +

    ``(`python +stream.play_async() +pendant que stream.is_playing(): + temps.sommeil(0,1)

    +

    Synchronisé:

    +

    ``(`python +stream.play()

    +

    Tester la bibliothèque

    +

    Le sous-répertoire de test contient un ensemble de scripts pour vous aider à évaluer et comprendre les capacités de la bibliothèque RealtimeTTS.

    +

    Notez que la plupart des tests reposent toujours sur l'« ancienne » API OpenAI (<1.0.0). L'utilisation de la nouvelle API OpenAI est démontrée dans openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Description : Une démonstration de style « hello world » de l'usage le plus simple de la bibliothèque.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Description : Une démonstration complète présentant la plupart des fonctionnalités fournies par la bibliothèque.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Description : Test du moteur local coqui TTS.
      • +
      +
    • +
    • +

      traducteur.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Traductions en temps réel dans six langues différentes.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Interface utilisateur activée par mot de réveil et basée sur la voix vers l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dépendances: Exécuter pip install openai keyboard realtimestt.
      • +
      • Description : Choisissez le moteur et la voix TTS avant de démarrer la conversation sur l'IA.
      • +
      +
    • +
    • +

      _talkbot.py minimaliste

      +
        +
      • Dépendances: Exécuter pip install openai realtimestt.
      • +
      • Description : Un talkbot basique en 20 lignes de code.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : Démonstration simple de la façon d'intégrer la bibliothèque avec de grands modèles de langage (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dépendances: Exécuter pip install openai.
      • +
      • Description : présente les rappels et vous permet de vérifier les temps de latence dans un environnement d'application réel.
      • +
      +
    • +
    +

    Mettre en pause, reprendre et arrêter

    +

    Mettre en pause le flux audio :

    +

    ``(`python +stream.pause()

    +

    Reprendre un flux en pause :

    +

    ``(`python +stream.reprendre()

    +

    Arrêtez immédiatement le flux :

    +

    ``(`python +stream.stop()

    +

    Exigences expliquées

    +
      +
    • Version Python:
    • +
    • Obligatoire: Python >= 3.9, < 3.13
    • +
    • +

      Raison : La bibliothèque dépend de la bibliothèque GitHub « TTS » de coqui, qui nécessite des versions Python dans cette gamme.

      +
    • +
    • +

      PyAudio : pour créer un flux audio de sortie

      +
    • +
    • +

      stream2sent : pour diviser le flux de texte entrant en phrases

      +
    • +
    • +

      pyttsx3 : Moteur de conversion texte-parole du système

      +
    • +
    • +

      pydub : pour convertir les formats de morceaux audio

      +
    • +
    • +

      azure-cognitiveservices-speech : Moteur de conversion texte-parole azur

      +
    • +
    • +

      elevenlabs : Moteur de conversion texte-parole Elevenlabs

      +
    • +
    • +

      coqui-TTS : Bibliothèque de synthèse vocale XTTS de Coqui pour un TTS neuronal local de haute qualité

      +
    • +
    +

    Criez à Idiap Research Institute pour entretenir une fourche de coqui tts.

    +
      +
    • +

      openai : pour interagir avec l'API TTS d'OpenAI

      +
    • +
    • +

      gtts : Google traduit la conversion texte-parole

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/hi/api/index.html b/zh/hi/api/index.html new file mode 100755 index 0000000..4c1e725 --- /dev/null +++ b/zh/hi/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    हिंदी

    + +

    कॉन्फ़िगरेशन

    +

    TextToAudioStream के लिए प्रारंभिक पैरामीटर

    +

    जब आप TextToAudioStream क्लास का इनिशियलाइज़ेशन करते हैं, तो आपके पास इसके व्यवहार को कस्टमाइज़ करने के लिए विभिन्न विकल्प होते हैं। यहाँ उपलब्ध पैरामीटर हैं:

    +

    engine (BaseEngine)

    +
      +
    • प्रकार: BaseEngine
    • +
    • आवश्यकता: हाँ
    • +
    • विवरण: टेक्स्ट-से-ऑडियो सिंथेसिस के लिए ज़िम्मेदार आधार इंजन। आपको ऑडियो सिंथेसिस को सक्षम करने के लिए BaseEngine या इसके सबक्लास का एक इंस्टेंस प्रदान करना होगा।
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब ट्रिगर होता है जब टेक्स्ट स्ट्रीम शुरू होती है। इसे किसी सेटअप या लॉगिंग के लिए उपयोग करें।
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन टेक्स्ट स्ट्रीम समाप्त होने पर सक्रिय होता है। इसे क्लीनअप कार्यों या लॉगिंग के लिए उपयोग किया जा सकता है।
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब चालू होता है जब ऑडियो स्ट्रीम शुरू होती है। यह UI अपडेट या इवेंट लॉगिंग के लिए सहायक है।
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन ऑडियो स्ट्रीम समाप्त होने पर कॉल किया जाता है। यह संसाधन क्लीनअप या पोस्ट-प्रोसेसिंग कार्यों के लिए आदर्श है।
    • +
    +

    on_character (callable)

    +
      +
    • प्रकार: कॉल करने योग्य फंक्शन
    • +
    • आवश्यकता: नहीं
    • +
    • विवरण: यह वैकल्पिक कॉलबैक फंक्शन तब कॉल किया जाता है जब एकल कैरेक्टर प्रोसेस किया जाता है।
    • +
    +

    output_device_index (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: उपयोग करने के लिए आउटपुट डिवाइस इंडेक्स निर्दिष्ट करता है। None डिफ़ॉल्ट डिवाइस का उपयोग करता है।
    • +
    +

    tokenizer (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: nltk
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग किए जाने वाले टोकनाइज़र (वर्तमान में "nltk" और "stanza" समर्थित हैं)।
    • +
    +

    language (string)

    +
      +
    • प्रकार: स्ट्रिंग
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: en
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +

    muted (bool)

    +
      +
    • प्रकार: बूल
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: ग्लोबल म्यूटेड पैरामीटर। अगर True है, तो कोई pyAudio स्ट्रीम नहीं खोली जाएगी। स्थानीय स्पीकरों के माध्यम से ऑडियो प्लेबैक को अक्षम करता है और प्ले पैरामीटर म्यूट सेटिंग को ओवरराइड करता है।
    • +
    +

    level (int)

    +
      +
    • प्रकार: इंटीजर
    • +
    • आवश्यकता: नहीं
    • +
    • डिफ़ॉल्ट: logging.WARNING
    • +
    • विवरण: आंतरिक लॉगर के लिए लॉगिंग स्तर सेट करता है। यह पायथन के बिल्ट-इन logging मॉड्यूल से कोई भी इंटीजर कॉन्स्टेंट हो सकता है।
    • +
    +

    उदाहरण उपयोग:

    +
    engine = YourEngine()  # अपने इंजन के साथ प्रतिस्थापित करें
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    मेथड्स

    +

    play और play_async

    +

    ये मेथड्स टेक्स्ट-से-ऑडियो सिंथेसिस को निष्पादित करने और ऑडियो स्ट्रीम प्ले करने के लिए जिम्मेदार हैं। play एक ब्लॉकिंग फंक्शन है, जबकि play_async एक अलग थ्रेड में चलता है, जिससे अन्य ऑपरेशंस जारी रह सकते हैं।

    +
    पैरामीटर:
    +
    fast_sentence_fragment (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह विधि स्पीड को प्राथमिकता देगी, और वाक्यांशों को तेजी से जनरेट और प्ले करेगी। यह ऐसे अनुप्रयोगों के लिए सहायक है जहाँ विलंबता मायने रखती है।
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो सभी वाक्यों पर फास्ट वाक्यांश प्रोसेसिंग लागू करता है।
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: जब True पर सेट किया जाता है, तो यह एकल के बजाय एकाधिक वाक्यांश उत्पन्न करने की अनुमति देता है।
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • डिफ़ॉल्ट: 0.0
    • +
    • +

      विवरण: बफ़रिंग सीमा के लिए समय को सेकंड में निर्दिष्ट करता है, जो ऑडियो प्लेबैक की स्थिरता और निरंतरता को प्रभावित करता है।

      +
    • +
    • +

      कैसे काम करता है: नए वाक्य का सिंथेसिस करने से पहले, सिस्टम यह जांचता है कि क्या बफ़र में निर्दिष्ट समय से अधिक ऑडियो सामग्री बची है। इससे यह सुनिश्चित होता है कि अधिक प्री-बफ़र किए गए ऑडियो से प्लेबैक में मौन या अंतराल कम हो।

      +
    • +
    +
    minimum_sentence_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: एक स्ट्रिंग को सिंथेसाइज़ करने के लिए वाक्य के रूप में मानने के लिए न्यूनतम कैरेक्टर की लंबाई सेट करता है।
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • डिफ़ॉल्ट: 10
    • +
    • विवरण: पहले वाक्यांश के लिए आवश्यक न्यूनतम कैरेक्टर की संख्या सेट करता है।
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: सक्षम होने पर, ऑडियो में सिंथेसाइज़ होते समय टेक्स्ट के अंशों को लॉग करता है।
    • +
    +
    reset_generated_text (bool)
    +
      +
    • डिफ़ॉल्ट: True
    • +
    • विवरण: अगर True है, तो प्रोसेसिंग से पहले जनरेट किए गए टेक्स्ट को रीसेट करता है।
    • +
    +
    output_wavfile (str)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: यदि सेट है, तो ऑडियो को निर्दिष्ट WAV फाइल में सहेजता है।
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने के बाद कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल वाक्यांश सिंथेसाइज़ होने से पहले कॉल किया जाने वाला एक कॉलबैक फंक्शन।
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: एकल ऑडियो टुकड़ा तैयार होने पर कॉल किया जाने वाला कॉलबैक फंक्शन।
    • +
    +
    tokenizer (str)
    +
      +
    • डिफ़ॉल्ट: "nltk"
    • +
    • विवरण: वाक्य विभाजन के लिए टोकनाइज़र। वर्तमान में "nltk" और "stanza" का समर्थन है।
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • डिफ़ॉल्ट: None
    • +
    • विवरण: टेक्स्ट से वाक्य को टोकनाइज़ करने
    • +
    +

    वाला एक कस्टम फंक्शन। यदि आप nltk और stanza से संतुष्ट नहीं हैं, तो अपना स्वयं का टोकनाइज़र प्रदान कर सकते हैं।

    +
    language (str)
    +
      +
    • डिफ़ॉल्ट: "en"
    • +
    • विवरण: वाक्य विभाजन के लिए उपयोग की जाने वाली भाषा।
    • +
    +
    context_size (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाने के लिए संदर्भ स्थापित करने के लिए प्रयुक्त कैरेक्टर की संख्या।
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • डिफ़ॉल्ट: 12
    • +
    • विवरण: वाक्य सीमा का पता लगाते समय आगे देखने के लिए अतिरिक्त संदर्भ आकार।
    • +
    +
    muted (bool)
    +
      +
    • डिफ़ॉल्ट: False
    • +
    • विवरण: यदि True है, तो स्थानीय स्पीकर के माध्यम से ऑडियो प्लेबैक को अक्षम करता है।
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • डिफ़ॉल्ट: ".?!;:,\n…)]}。-"
    • +
    • विवरण: उन कैरेक्टर की स्ट्रिंग जो वाक्य सीमाओं के रूप में माने जाते हैं।
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • डिफ़ॉल्ट: 15
    • +
    • विवरण: पहले वाक्यांश को उत्पन्न करने के लिए आवश्यक शब्दों की संख्या।
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/hi/contributing/index.html b/zh/hi/contributing/index.html new file mode 100755 index 0000000..ac6aca3 --- /dev/null +++ b/zh/hi/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS में योगदान करें

    +

    हम RealtimeTTS में आपके योगदान का स्वागत करते हैं! आप इन तरीकों से योगदान कर सकते हैं:

    +
      +
    1. +

      बग रिपोर्ट करना: यदि आपको कोई बग मिलता है, तो कृपया हमारे GitHub रिपॉजिटरी पर एक इश्यू खोलें।

      +
    2. +
    3. +

      सुधारों का सुझाव देना: क्या आपके पास नई सुविधाओं या सुधारों के लिए सुझाव हैं? हमें उन्हें सुनकर खुशी होगी! कृपया सुधारों का सुझाव देने के लिए एक इश्यू खोलें।

      +
    4. +
    5. +

      कोड योगदान: कोई नई सुविधा जोड़ना चाहते हैं या किसी बग को ठीक करना चाहते हैं? शानदार! कृपया इन चरणों का पालन करें:

      +
    6. +
    7. रिपॉजिटरी को फोर्क करें
    8. +
    9. अपने फीचर के लिए एक नई ब्रांच बनाएं
    10. +
    11. अपने बदलाव करें
    12. +
    13. +

      अपने बदलावों का स्पष्ट विवरण देते हुए एक पुल रिक्वेस्ट सबमिट करें

      +
    14. +
    15. +

      दस्तावेज़ीकरण: टाइपो सुधारने, उदाहरण जोड़ने या भ्रमित करने वाले भागों को स्पष्ट करके हमें अपने दस्तावेज़ीकरण में सुधार करने में मदद करें।

      +
    16. +
    17. +

      नए इंजनों को जोड़ना: यदि आप किसी नए TTS इंजन के लिए समर्थन जोड़ना चाहते हैं, तो कृपया पहले एक इश्यू खोलें ताकि हम इसके कार्यान्वयन पर चर्चा कर सकें।

      +
    18. +
    +

    RealtimeTTS को बेहतर बनाने में मदद करने के लिए धन्यवाद!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/hi/faq/index.html b/zh/hi/faq/index.html new file mode 100755 index 0000000..832a715 --- /dev/null +++ b/zh/hi/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    अक्सर पूछे जाने वाले प्रश्न

    +

    RealtimeTTS से संबंधित अक्सर पूछे जाने वाले प्रश्नों के उत्तर के लिए, कृपया हमारे GitHub पर FAQ पेज पर जाएँ।

    +

    यह पेज विभिन्न विषयों को कवर करता है, जिनमें शामिल हैं:

    +
      +
    • विभिन्न TTS इंजनों का उपयोग
    • +
    • बहुभाषी टेक्स्ट को संभालना
    • +
    • प्रदर्शन में सुधार
    • +
    • सामान्य समस्याओं का समाधान
    • +
    +

    अधिक विस्तृत जानकारी के लिए, कृपया ऊपर दिए गए लिंक पर जाएँ।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/hi/index.html b/zh/hi/index.html new file mode 100755 index 0000000..3fd360e --- /dev/null +++ b/zh/hi/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    रीयल-टाइम अनुप्रयोगों के लिए उपयोग में आसान, कम-विलंबता वाला टेक्स्ट-टू-स्पीच लाइब्रेरी

    +

    परियोजना के बारे में

    +

    RealtimeTTS एक अत्याधुनिक टेक्स्ट-टू-स्पीच (TTS) लाइब्रेरी है, जिसे रीयल-टाइम अनुप्रयोगों के लिए डिज़ाइन किया गया है। इसकी सबसे बड़ी विशेषता यह है कि यह न्यूनतम विलंबता के साथ टेक्स्ट स्ट्रीम को तेज़ी से उच्च-गुणवत्ता वाली ध्वनि में परिवर्तित कर सकता है।

    +

    मुख्य विशेषताएँ

    +
      +
    • कम विलंबता: लगभग तात्कालिक टेक्स्ट-टू-स्पीच रूपांतरण, LLM आउटपुट के अनुकूल
    • +
    • उच्च-गुणवत्ता वाली ध्वनि: स्पष्ट और प्राकृतिक-ध्वनि उत्पन्न करता है
    • +
    • विभिन्न TTS इंजनों का समर्थन: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS और System TTS का समर्थन करता है
    • +
    • बहुभाषी समर्थन
    • +
    • मजबूत और विश्वसनीय: लगातार संचालन सुनिश्चित करने के लिए एक फ़ॉलबैक तंत्र का उपयोग करता है, व्यवधानों के मामले में वैकल्पिक इंजनों पर स्विच करता है, जो स्थिरता और विश्वसनीयता की गारंटी देता है
    • +
    +

    स्थापना निर्देशों, उपयोग के उदाहरणों और API संदर्भ के लिए, कृपया साइडबार का उपयोग करके दस्तावेज़ में नेविगेट करें।

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/hi/installation/index.html b/zh/hi/installation/index.html new file mode 100755 index 0000000..dc47e17 --- /dev/null +++ b/zh/hi/installation/index.html @@ -0,0 +1,2216 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | HN

    +
    +

    नोट: pip install realtimetts का बेसिक इंस्टॉलेशन अब अनुशंसित नहीं है, इसके बजाय pip install realtimetts[all] का उपयोग करें।

    +
    +

    RealtimeTTS लाइब्रेरी विभिन्न निर्भरताओं के साथ इंस्टॉलेशन के विकल्प प्रदान करती है, ताकि आप अपने उपयोग के अनुसार इसे स्थापित कर सकें। यहाँ इंस्टॉलेशन के विभिन्न विकल्प दिए गए हैं:

    +

    पूर्ण स्थापना

    +

    सभी TTS इंजनों के समर्थन के साथ RealtimeTTS स्थापित करने के लिए:

    +
    pip install -U realtimetts[all]
    +
    +

    कस्टम इंस्टॉलेशन

    +

    RealtimeTTS में न्यूनतम लाइब्रेरी इंस्टॉलेशन के साथ कस्टम इंस्टॉलेशन की सुविधा है। उपलब्ध विकल्प:

    +
      +
    • all: सभी इंजनों के साथ पूर्ण इंस्टॉलेशन।
    • +
    • system: सिस्टम-विशिष्ट TTS क्षमताएँ शामिल करता है (जैसे, pyttsx3)।
    • +
    • azure: Azure Cognitive Services Speech का समर्थन जोड़ता है।
    • +
    • elevenlabs: ElevenLabs API के साथ एकीकरण।
    • +
    • openai: OpenAI वॉइस सेवाओं के लिए।
    • +
    • gtts: Google Text-to-Speech समर्थन।
    • +
    • coqui: Coqui TTS इंजन स्थापित करता है।
    • +
    • minimal: केवल बेस आवश्यकताओं को स्थापित करता है, बिना किसी इंजन के (यदि आप अपना इंजन विकसित करना चाहते हैं तो इसकी आवश्यकता होती है)।
    • +
    +

    उदाहरण के लिए, केवल स्थानीय न्यूरल Coqui TTS उपयोग के लिए RealtimeTTS स्थापित करना हो, तो उपयोग करें:

    +
    pip install realtimetts[coqui]
    +
    +

    अगर आप केवल Azure Cognitive Services Speech, ElevenLabs, और OpenAI का समर्थन चाहते हैं तो:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    वर्चुअल एनवायरनमेंट इंस्टॉलेशन

    +

    यदि आप एक वर्चुअल एनवायरनमेंट में पूर्ण स्थापना करना चाहते हैं, तो ये कदम अपनाएँ:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA इंस्टॉलेशन के बारे में अधिक जानकारी।

    +

    इंजन आवश्यकताएँ

    +

    RealtimeTTS द्वारा समर्थित विभिन्न इंजनों की अलग-अलग आवश्यकताएँ हैं। अपनी पसंद के अनुसार इन आवश्यकताओं को पूरा करना सुनिश्चित करें।

    +

    SystemEngine

    +

    SystemEngine आपके सिस्टम की अंतर्निहित TTS क्षमताओं के साथ स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    GTTSEngine

    +

    GTTSEngine Google Translate के टेक्स्ट-टू-स्पीच API का उपयोग करके स्वतः काम करता है। किसी अतिरिक्त सेटअप की आवश्यकता नहीं है।

    +

    OpenAIEngine

    +

    OpenAIEngine का उपयोग करने के लिए: +- पर्यावरण वेरिएबल OPENAI_API_KEY सेट करें +- ffmpeg स्थापित करें (देखें CUDA इंस्टॉलेशन बिंदु 3)

    +

    AzureEngine

    +

    AzureEngine का उपयोग करने के लिए आपको चाहिए: +- Microsoft Azure Text-to-Speech API कुंजी (AzureEngine में "speech_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल AZURE_SPEECH_KEY में) +- Microsoft Azure सेवा क्षेत्र।

    +

    इंस्टॉल करते समय ये क्रेडेंशियल उपलब्ध और सही तरीके से कॉन्फ़िगर करना सुनिश्चित करें।

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine के लिए, आपको चाहिए: +- Elevenlabs API कुंजी (ElevenlabsEngine में "api_key" पैरामीटर के माध्यम से या पर्यावरण वेरिएबल ELEVENLABS_API_KEY में) +- आपके सिस्टम पर mpv स्थापित हो (mpeg ऑडियो स्ट्रीमिंग के लिए आवश्यक है, Elevenlabs केवल mpeg प्रदान करता है)।

    +

    🔹 mpv स्थापित करना: + - macOS: + brew install mpv

    +
      +
    • Linux और Windows: इंस्टॉलेशन के निर्देशों के लिए mpv.io पर जाएं।
    • +
    +

    CoquiEngine

    +

    उच्च गुणवत्ता, स्थानीय, न्यूरल TTS प्रदान करता है जिसमें वॉइस-क्लोनिंग भी शामिल है।

    +

    पहली बार एक न्यूरल TTS मॉडल डाउनलोड करता है। अधिकतर मामलों में GPU सिंथेसिस का उपयोग करते हुए रीयल-टाइम के लिए पर्याप्त तेज़ होगा। लगभग 4-5 GB VRAM की आवश्यकता होती है।

    +
      +
    • वॉइस क्लोन करने के लिए CoquiEngine के "voice" पैरामीटर में एक वेव फ़ाइल का नाम दर्ज करें जिसमें स्रोत वॉइस हो।
    • +
    • वॉइस क्लोनिंग के लिए 22050 Hz मोनो 16-बिट WAV फाइल के साथ लगभग 5-30 सेकंड की नमूना ऑडियो फ़ाइल सबसे अच्छा परिणाम देती है।
    • +
    +

    CUDA इंस्टॉलेशन

    +

    वे लोग जिनके पास NVIDIA GPU है और जो बेहतर प्रदर्शन चाहते हैं, उनके लिए ये कदम अनुशंसित हैं।

    +
    +

    नोट: अगर आपका NVIDIA GPU CUDA को सपोर्ट करता है तो आधिकारिक CUDA GPUs सूची पर जाँचें।

    +
    +

    CUDA समर्थन के साथ torch का उपयोग करने के लिए, इन चरणों का पालन करें:

    +
      +
    1. +

      NVIDIA CUDA टूलकिट स्थापित करें: + उदाहरण के लिए, टूलकिट 12.X स्थापित करने के लिए:

      +
        +
      • NVIDIA CUDA डाउनलोड पर जाएँ।
      • +
      • अपने ऑपरेटिंग सिस्टम, सिस्टम आर्किटेक्चर, और ओएस संस्करण का चयन करें।
      • +
      • सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।
      • +
      +
    2. +
    3. +

      NVIDIA cuDNN स्थापित करें:

      +

      उदाहरण के लिए, CUDA 11.x के लिए cuDNN 8.7.0 स्थापित करने के लिए: +- NVIDIA cuDNN Archive पर जाएं। +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x" पर क्लिक करें। +- सॉफ़्टवेयर डाउनलोड और इंस्टॉल करें।

      +
    4. +
    5. +

      ffmpeg स्थापित करें:

      +

      आप अपने OS के लिए ffmpeg वेबसाइट से इंस्टॉलर डाउनलोड कर सकते हैं: ffmpeg Website

      +
    6. +
    7. +

      CUDA समर्थन के साथ PyTorch स्थापित करें:

      +

      अपने सिस्टम और आवश्यकताओं के अनुसार PyTorch संस्करण को CUDA समर्थन के साथ अपग्रेड करने के लिए:

      +
        +
      • +

        CUDA 11.8 के लिए:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        CUDA 12.X के लिए:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +
    8. +
    9. +

      संगतता समस्याओं को हल करने के लिए फिक्स: + यदि आप लाइब्रेरी संगतता मुद्दों का सामना करते हैं, तो इन लाइब्रेरी संस्करणों को फिक्स करने का प्रयास करें:

      +
    10. +
    +

    pip install networkx==2.8.8 + pip install typing_extensions==4.8.0 + pip install fsspec==2023.6.0 + pip install imageio==2.31.6 + pip install numpy==1.24.3 + pip install requests==2.31.0

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/hi/usage/index.html b/zh/hi/usage/index.html new file mode 100755 index 0000000..3c1a04b --- /dev/null +++ b/zh/hi/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + हिंदी - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    उपयोग

    +

    त्वरित प्रारंभ

    +

    यहाँ एक बुनियादी उदाहरण दिया गया है:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # अपनी TTS-इंजन के साथ इसे बदलें
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    टेक्स्ट इनपुट

    +

    आप व्यक्तिगत स्ट्रिंग्स इनपुट कर सकते हैं:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    या आप वास्तविक समय-स्ट्रीमिंग के लिए जनरेटर और कैरेक्टर-इटरेटर का उपयोग कर सकते हैं:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    प्लेबैक

    +

    असिंक्रोनस:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    सिंक्रोनस:

    +
    stream.play()
    +
    +

    लाइब्रेरी का परीक्षण

    +

    परीक्षण-सबडायरेक्टरी में विभिन्न स्क्रिप्ट्स शामिल हैं, जो आपको RealtimeTTS लाइब्रेरी की क्षमताओं को समझने और आकलन करने में मदद करती हैं।

    +

    ध्यान दें कि अधिकांश परीक्षण अभी भी "पुरानी" OpenAI API (<1.0.0) पर आधारित हैं। नई OpenAI API का उपयोग openai_1.0_test.py में प्रदर्शित किया गया है।

    +
      +
    • +

      simple_test.py

      +
        +
      • विवरण: सबसे आसान लाइब्रेरी उपयोग का एक "Hello World" जैसा प्रदर्शन।
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • विवरण: लाइब्रेरी की अधिकतम कार्यक्षमता का व्यापक प्रदर्शन।
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • विवरण: स्थानीय Coqui TTS-इंजन का परीक्षण।
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: वास्तविक समय में छह विभिन्न भाषाओं में अनुवाद।
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: एक्टिवेशन-वर्ड के माध्यम से और आवाज-आधारित इंटरफ़ेस के साथ OpenAI API का उपयोग।
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • आवश्यकताएँ: pip install openai keyboard realtimestt कमांड चलाएँ।
      • +
      • विवरण: AI बातचीत शुरू करने से पहले TTS-इंजन और आवाज का चयन।
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • आवश्यकताएँ: pip install openai realtimestt कमांड चलाएँ।
      • +
      • विवरण: 20 कोड लाइनों में एक साधारण टॉकबोट।
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: लाइब्रेरी की LLMs के साथ एकीकृत करने का सरल प्रदर्शन।
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • आवश्यकताएँ: pip install openai कमांड चलाएँ।
      • +
      • विवरण: वास्तविक वातावरण में विलंब समय को मापने और प्रतिक्रिया को प्रदर्शित करता है।
      • +
      +
    • +
    +

    रुकना, पुनः आरंभ करना और रोकना

    +

    ऑडियो स्ट्रीम को रोकें:

    +
    stream.pause()
    +
    +

    रुकी हुई स्ट्रीम पुनः प्रारंभ करें:

    +
    stream.resume()
    +
    +

    स्ट्रीम तुरंत रोकें:

    +
    stream.stop()
    +
    +

    आवश्यकताओं का स्पष्टीकरण

    +
      +
    • Python संस्करण:
    • +
    • आवश्यक: Python >= 3.9, < 3.13
    • +
    • +

      कारण: लाइब्रेरी Coqui की GitHub लाइब्रेरी "TTS" पर निर्भर करती है, जो इस संस्करण सीमा का समर्थन करती है।

      +
    • +
    • +

      PyAudio: ऑडियो आउटपुट स्ट्रीम बनाने के लिए

      +
    • +
    • +

      stream2sentence: इनकमिंग टेक्स्ट स्ट्रीम को वाक्यों में विभाजित करने के लिए

      +
    • +
    • +

      pyttsx3: सिस्टम Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      pydub: ऑडियो चंक फॉर्मेट्स में कन्वर्शन के लिए

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      elevenlabs: Elevenlabs Text-to-Speech कन्वर्शन इंजन

      +
    • +
    • +

      coqui-TTS: उच्च गुणवत्ता वाली स्थानीय न्यूरल TTS के लिए Coqui का XTTS Text-to-Speech लाइब्रेरी

      +
    • +
    +

    Idiap Research Institute को उनके Coqui TTS का Fork बनाए रखने के लिए धन्यवाद।

    +
      +
    • +

      openai: OpenAI TTS API के साथ बातचीत के लिए

      +
    • +
    • +

      gtts: Google Translate Text-to-Speech कन्वर्शन

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/index.html b/zh/index.html new file mode 100755 index 0000000..296b016 --- /dev/null +++ b/zh/index.html @@ -0,0 +1,1937 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    易于使用、低延迟、适用于实时应用的文本到语音库

    +

    项目简介

    +

    RealtimeTTS 是专为实时应用设计的最先进的文本转语音(TTS)库。它能将文本流快速转换为高质量的听觉输出,并将延迟降到最低。

    +

    关键功能

    +
      +
    • 低延迟**:文本到语音的转换几乎瞬时完成,与 LLM 输出兼容
    • +
    • 高质量音频**:生成清晰自然的语音
    • +
    • 支持多种 TTS 引擎**:支持 OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS 和 System TTS
    • +
    • 多种语言**
    • +
    • 稳定可靠**:通过后备机制确保持续运行,在出现中断时切换到替代引擎,保证性能和可靠性的一致性
    • +
    +

    有关安装说明、使用示例和 API 参考,请使用侧边栏浏览文档。

    +

    通过DeepL.com(免费版)翻译

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/installation/index.html b/zh/installation/index.html new file mode 100755 index 0000000..fdc4aa0 --- /dev/null +++ b/zh/installation/index.html @@ -0,0 +1,2274 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +
    +

    注意: 不再推荐使用 pip install realtimetts 进行基本安装,而应使用 pip install realtimetts[all]

    +
    +

    RealtimeTTS 库为您的用例提供了各种依赖项的安装选项。以下是根据需要安装 RealtimeTTS 的不同方法:

    +

    完整安装

    +

    安装支持所有 TTS 引擎的 RealtimeTTS:

    +
    pip install -U realtimetts[all]
    +
    +

    定制安装

    +

    RealtimeTTS 允许使用最少的库安装进行自定义安装。以下是可用选项: +- 全部: 完全安装所有支持的引擎。 +- *系统: 包括特定系统的 TTS 功能(如 pyttsx3)。 +- azure: 添加 Azure 认知服务语音支持。 +- elevenlabs: 包括与 ElevenLabs API 的集成。 +- openai: 用于 OpenAI 语音服务。 +- gtts: 支持谷歌文本到语音。 +- coqui: 安装 Coqui TTS 引擎。 +- minimal: 只安装基本要求,不安装引擎(只有当你想开发自己的引擎时才需要)。

    +

    如果您只想为本地神经元 Coqui TTS 安装 RealtimeTTS,则应使用

    +
    pip install realtimetts[coqui]
    +
    +

    例如,如果您想安装只支持 Azure 认知服务语音、ElevenLabs 和 OpenAI 的 RealtimeTTS:

    +
    pip install realtimetts[azure,elevenlabs,openai].
    +
    +

    虚拟环境安装

    +

    如果想在虚拟环境中进行完整安装,请按照以下步骤操作:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    有关 CUDA 安装 的更多信息。

    +

    引擎要求

    +

    RealtimeTTS 支持的不同引擎有其独特的要求。请根据所选引擎确保满足这些要求。

    +

    系统引擎

    +

    系统引擎 "开箱即用,具有系统内置的 TTS 功能。无需额外设置。

    +

    GTTS 引擎

    +

    GTTSEngine "开箱即用,使用谷歌翻译的文本到语音 API。无需额外设置。

    +

    OpenAIEngine

    +

    要使用 OpenAIEngine: +- 设置环境变量 OPENAI_API_KEY +- 安装 ffmpeg(参见 CUDA 安装 第 3 点)

    +

    AzureEngine

    +

    要使用 “AzureEngine”,你需要 +- Microsoft Azure 文本到语音 API 密钥(通过 AzureEngine 构造函数参数 “speech_key ”或环境变量 AZURE_SPEECH_KEY 提供) +- Microsoft Azure 服务区域。

    +

    在初始化 AzureEngine 时,确保这些凭据可用并配置正确。

    +

    ElevenlabsEngine

    +

    使用 ElevenlabsEngine 时需要 +- Elevenlabs API 密钥(通过 ElevenlabsEngine 构造函数参数 “api_key ”或环境变量 ELEVENLABS_API_KEY 提供) +- 系统中已安装 mpv(用于流式传输 mpeg 音频,Elevenlabs 仅提供 mpeg)。

    +

    🔹 安装 mpv: + - macOS**: + brew install mpv

    +
      +
    • Linux和Windows: 请访问 mpv.io 获取安装说明。
    • +
    +

    CoquiEngine

    +

    通过语音克隆提供高质量的本地神经 TTS。

    +

    首先下载一个神经 TTS 模型。在大多数情况下,使用 GPU 合成的实时速度足够快。需要大约 4-5GB VRAM。

    +
      +
    • 要克隆语音,请将包含源语音的波形文件的文件名作为 “语音 ”参数提交给 CoquiEngine 构造函数
    • +
    • 语音克隆最好使用 22050 Hz 单声道 16 位 WAV 文件,其中包含一个短(约 5-30 秒)样本
    • +
    +

    在大多数系统上,需要 GPU 的支持才能以足够快的速度实时运行,否则会出现卡顿现象。

    +

    CUDA 安装

    +

    这些步骤适用于那些需要更好性能并且拥有兼容的NVIDIA GPU的人。

    +
    +

    注意要检查您的NVIDIA GPU是否支持CUDA,请访问官方CUDA GPU列表

    +
    +

    要使用支持CUDA的torch,请按照以下步骤操作:

    +
    +

    注意较新的 PyTorch 安装 可能(未经验证)不再需要安装 Toolkit(可能也不需要安装 cuDNN)。

    +
    +
      +
    1. +

      安装 NVIDIA CUDA Toolkit: + 例如,要安装 Toolkit 12.X,请

      +
        +
      • 访问 NVIDIA CUDA 下载
      • +
      • 选择你的操作系统、系统架构和操作系统版本。
      • +
      • 下载并安装软件。
      • +
      +

      或者要安装 Toolkit 11.8,请 +- 访问 NVIDIA CUDA Toolkit Archive。 +- 选择您的操作系统、系统架构和操作系统版本。 +- 下载并安装软件。

      +
    2. +
    3. +

      安装 NVIDIA cuDNN

      +

      例如,要为CUDA 11.x安装cuDNN 8.7.0,请 +- 访问NVIDIA cuDNN归档。 +- 点击“下载 cuDNN v8.7.0(2022年11月28日),适用于 CUDA 11.x”。 +- 下载并安装软件。

      +
    4. +
    5. +

      安装 ffmpeg

      +

      您可以从 ffmpeg 网站 下载适用于您操作系统的安装程序。

      +

      或者使用包管理器:

      +
        +
      • +

        在 Ubuntu 或 Debian 上: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        在 Arch Linux 上: + sudo pacman -S ffmpeg

        +
      • +
      • +

        在使用 Homebrew 的 MacOS 上 (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        在Windows上使用Chocolatey (https://chocolatey.org/): + ``` + choco install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **在Windows上使用Scoop** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```plaintext
    +        scoop install ffmpeg
    +        ```
    +
    +4. **安装带有CUDA支持的PyTorch**:
    +
    +    要升级您的PyTorch安装以启用CUDA的GPU支持,请根据您的具体CUDA版本遵循以下说明。 如果您希望通过CUDA功能提升RealtimeSTT的性能,这将非常有用。
    +
    +    - **对于CUDA 11.8:**
    +
    +        要更新 PyTorch 和 Torchaudio 以支持 CUDA 11.8,请使用以下命令:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        文本待翻译:```
    +
    +- **对于CUDA 12.X:**
    +
    +
    +    要更新 PyTorch 和 Torchaudio 以支持 CUDA 12.X,请执行以下操作:
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +文本待翻译:

    +
    将 `2.3.1` 替换为适合您的系统和需求的 PyTorch 版本。
    +
    +
      +
    1. 修复以解决兼容性问题: + 如果你遇到库兼容性问题,尝试将这些库设置为固定版本:
    2. +
    +

    文本翻译:```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/it/api/index.html b/zh/it/api/index.html new file mode 100755 index 0000000..e53a23f --- /dev/null +++ b/zh/it/api/index.html @@ -0,0 +1,2803 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Italiano

    + +

    Configurazione

    +

    Parametri di Inizializzazione per TextToAudioStream

    +

    Quando si inizializza la classe TextToAudioStream, sono disponibili diverse opzioni per personalizzare il suo comportamento. Ecco i parametri disponibili:

    +

    engine (BaseEngine)

    +
      +
    • Tipo: BaseEngine
    • +
    • Obbligatorio: Sì
    • +
    • Descrizione: Il motore sottostante responsabile della sintesi da testo ad audio. È necessario fornire un'istanza di BaseEngine o della sua sottoclasse per abilitare la sintesi audio.
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando inizia lo stream di testo. Utilizzala per qualsiasi configurazione o registrazione necessaria.
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene attivata quando termina lo stream di testo. Puoi utilizzarla per attività di pulizia o registrazione.
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene invocata quando inizia lo stream audio. Utile per aggiornamenti dell'interfaccia utente o registrazione eventi.
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando lo stream audio si ferma. Ideale per la pulizia delle risorse o attività di post-elaborazione.
    • +
    +

    on_character (callable)

    +
      +
    • Tipo: Funzione callable
    • +
    • Obbligatorio: No
    • +
    • Descrizione: Questa funzione di callback opzionale viene chiamata quando viene elaborato un singolo carattere.
    • +
    +

    output_device_index (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: None
    • +
    • Descrizione: Specifica l'indice del dispositivo di output da utilizzare. None usa il dispositivo predefinito.
    • +
    +

    tokenizer (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: nltk
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi (attualmente sono supportati "nltk" e "stanza").
    • +
    +

    language (string)

    +
      +
    • Tipo: Stringa
    • +
    • Obbligatorio: No
    • +
    • Predefinito: en
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +

    muted (bool)

    +
      +
    • Tipo: Bool
    • +
    • Obbligatorio: No
    • +
    • Predefinito: False
    • +
    • Descrizione: Parametro globale di silenziamento. Se True, non verrà aperto alcuno stream pyAudio. Disabilita la riproduzione audio attraverso gli altoparlanti locali (nel caso in cui si desideri sintetizzare su file o elaborare chunk audio) e sovrascrive l'impostazione muted dei parametri di riproduzione.
    • +
    +

    level (int)

    +
      +
    • Tipo: Intero
    • +
    • Obbligatorio: No
    • +
    • Predefinito: logging.WARNING
    • +
    • Descrizione: Imposta il livello di logging per il logger interno. Può essere qualsiasi costante intera dal modulo logging integrato di Python.
    • +
    +

    Esempio di Utilizzo:

    +
    engine = YourEngine()  # Sostituire con il proprio motore
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    Metodi

    +

    play e play_async

    +

    Questi metodi sono responsabili dell'esecuzione della sintesi testo-audio e della riproduzione dello stream audio. La differenza è che play è una funzione bloccante, mentre play_async viene eseguito in un thread separato, permettendo ad altre operazioni di procedere.

    +
    Parametri:
    +
    fast_sentence_fragment (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Quando impostato su True, il metodo darà priorità alla velocità, generando e riproducendo i frammenti di frase più rapidamente. Questo è utile per applicazioni dove la latenza è importante.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, applica l'elaborazione rapida dei frammenti di frase a tutte le frasi, non solo alla prima.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando impostato su True, permette di produrre più frammenti di frase invece di uno solo.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • Predefinito: 0.0
    • +
    • +

      Descrizione: Specifica il tempo in secondi per la soglia di buffering, che influenza la fluidità e la continuità della riproduzione audio.

      +
    • +
    • +

      Come Funziona: Prima di sintetizzare una nuova frase, il sistema controlla se nel buffer rimane più materiale audio del tempo specificato da buffer_threshold_seconds. In caso affermativo, recupera un'altra frase dal generatore di testo, assumendo che possa recuperare e sintetizzare questa nuova frase entro la finestra temporale fornita dall'audio rimanente nel buffer. Questo processo consente al motore di sintesi vocale di avere più contesto per una migliore sintesi, migliorando l'esperienza utente.

      +
    • +
    +

    Un valore più alto assicura che ci sia più audio pre-bufferizzato, riducendo la probabilità di silenzi o interruzioni durante la riproduzione. Se si verificano interruzioni o pause, considera di aumentare questo valore.

    +
    minimum_sentence_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Imposta la lunghezza minima in caratteri per considerare una stringa come una frase da sintetizzare. Questo influisce su come vengono elaborati e riprodotti i chunk di testo.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • Predefinito: 10
    • +
    • Descrizione: Il numero minimo di caratteri richiesti per il primo frammento di frase prima della produzione.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Quando abilitato, registra i chunk di testo mentre vengono sintetizzati in audio. Utile per il controllo e il debugging.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • Predefinito: True
    • +
    • Descrizione: Se True, reimposta il testo generato prima dell'elaborazione.
    • +
    +
    output_wavfile (str)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Se impostato, salva l'audio nel file WAV specificato.
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata dopo che un singolo frammento di frase è stato sintetizzato.
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione di callback che viene chiamata prima che un singolo frammento di frase venga sintetizzato.
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Funzione di callback che viene chiamata quando un singolo chunk audio è pronto.
    • +
    +
    tokenizer (str)
    +
      +
    • Predefinito: "nltk"
    • +
    • Descrizione: Tokenizer da utilizzare per la divisione delle frasi. Attualmente supporta "nltk" e "stanza".
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • Predefinito: None
    • +
    • Descrizione: Una funzione personalizzata che tokenizza le frasi dal testo di input. Puoi fornire il tuo tokenizer leggero se non sei soddisfatto di nltk e stanza. Dovrebbe prendere il testo come stringa e restituire le frasi divise come lista di stringhe.
    • +
    +
    language (str)
    +
      +
    • Predefinito: "en"
    • +
    • Descrizione: Lingua da utilizzare per la divisione delle frasi.
    • +
    +
    context_size (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Il numero di caratteri utilizzati per stabilire il contesto per il rilevamento dei confini della frase. Un contesto più ampio migliora la precisione nel rilevare i confini delle frasi.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • Predefinito: 12
    • +
    • Descrizione: Dimensione del contesto aggiuntiva per guardare avanti durante il rilevamento dei confini delle frasi.
    • +
    +
    muted (bool)
    +
      +
    • Predefinito: False
    • +
    • Descrizione: Se True, disabilita la riproduzione audio attraverso gli altoparlanti locali. Utile quando si desidera sintetizzare su file o elaborare chunk audio senza riprodurli.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • Predefinito: ".?!;:,\n…)]}。-"
    • +
    • Descrizione: Una stringa di caratteri che sono considerati delimitatori di frase.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • Predefinito: 15
    • +
    • Descrizione: Il numero di parole dopo il quale viene forzata la produzione del primo frammento di frase.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/it/contributing/index.html b/zh/it/contributing/index.html new file mode 100755 index 0000000..e72cff1 --- /dev/null +++ b/zh/it/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Contribuire a RealtimeTTS

    +

    Accogliamo con favore i contributi a RealtimeTTS! Ecco alcuni modi in cui puoi contribuire:

    +
      +
    1. +

      Segnalazione di bug: Se trovi un bug, apri un problema sul nostro repository GitHub.

      +
    2. +
    3. +

      Suggerendo Miglioramenti: Hai idee per nuove funzionalità o miglioramenti? Ci piacerebbe sentirli! Apri un problema per suggerire miglioramenti.

      +
    4. +
    5. +

      Contributi del codice: vuoi aggiungere una nuova funzionalità o correggere un bug? Grande! Si prega di seguire questi passaggi:

      +
    6. +
    7. Forchetta il repository
    8. +
    9. Crea un nuovo ramo per la tua funzione
    10. +
    11. Apporta le tue modifiche
    12. +
    13. +

      Invia una richiesta pull con una chiara descrizione delle modifiche

      +
    14. +
    15. +

      Documentazione: aiutaci a migliorare la nostra documentazione correggendo errori di battitura, aggiungendo esempi o chiarendo sezioni confuse.

      +
    16. +
    17. +

      Aggiunta di nuovi motori: se si desidera aggiungere il supporto per un nuovo motore TTS, aprire prima un problema per discutere l'implementazione.

      +
    18. +
    +

    Grazie per aver contribuito a rendere RealtimeTTS migliore!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/it/faq/index.html b/zh/it/faq/index.html new file mode 100755 index 0000000..d59c01a --- /dev/null +++ b/zh/it/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    Domande frequenti

    +

    Per le risposte alle domande più frequenti su RealtimeTTS, fare riferimento alla nostra [pagina FAQ su GitHub] (https://github.com/KoljaB/RealtimeTTS/blob/master/FAQ.md).

    +

    Questa pagina tratta vari argomenti tra cui

    +
      +
    • Utilizzo di diversi motori TTS
    • +
    • Gestione del testo multilingue
    • +
    • Ottimizzazione delle prestazioni
    • +
    • Risoluzione dei problemi comuni
    • +
    +

    Per informazioni più dettagliate, visitare il link sopra.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/it/index.html b/zh/it/index.html new file mode 100755 index 0000000..2dad75a --- /dev/null +++ b/zh/it/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    Libreria text-to-speech facile da usare e a bassa latenza per applicazioni in tempo reale

    +

    Informazioni sul progetto

    +

    RealtimeTTS è una libreria text-to-speech (TTS) all'avanguardia progettata per applicazioni in tempo reale. Si distingue per la sua capacità di convertire rapidamente i flussi di testo in output uditivo di alta qualità con una latenza minima.

    +

    Caratteristiche principali

    +
      +
    • Bassa latenza: conversione testo-discorso quasi istantanea, compatibile con le uscite LLM
    • +
    • Audio di alta qualità: generi un discorso chiaro e dal suono naturale
    • +
    • Multiplo supporto motore TTS: supportoa OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS e System TTS
    • +
    • Multilingue
    • +
    • Robust and Reliable: assicurazione un divertimento continuo attraverso un meccanismo di ripiego, passa a motori alternativi in caso di interdizioni garantite prestazioni e affidabilità costanti
    • +
    +

    Per istruzioni di installazione, esempi di utilizzo e ritorno API, navigare nella documentazione utilizzando la barra laterale.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/it/installation/index.html b/zh/it/installation/index.html new file mode 100755 index 0000000..2b29546 --- /dev/null +++ b/zh/it/installation/index.html @@ -0,0 +1,2252 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Italiano

    + +
    +

    Nota: L'installazione base con pip install realtimetts non è più raccomandata, utilizzare invece pip install realtimetts[all].

    +
    +

    La libreria RealtimeTTS fornisce opzioni di installazione per varie dipendenze in base al tuo caso d'uso. Ecco i diversi modi in cui puoi installare RealtimeTTS in base alle tue necessità:

    +

    Installazione Completa

    +

    Per installare RealtimeTTS con supporto per tutti i motori TTS:

    +
    pip install -U realtimetts[all]
    +
    +

    Installazione Personalizzata

    +

    RealtimeTTS permette un'installazione personalizzata con installazioni minime delle librerie. Ecco le opzioni disponibili: +- all: Installazione completa con tutti i motori supportati. +- system: Include le capacità TTS specifiche del sistema (es. pyttsx3). +- azure: Aggiunge il supporto Azure Cognitive Services Speech. +- elevenlabs: Include l'integrazione con l'API ElevenLabs. +- openai: Per i servizi vocali OpenAI. +- gtts: Supporto Google Text-to-Speech. +- coqui: Installa il motore Coqui TTS. +- minimal: Installa solo i requisiti base senza motore (necessario solo se si vuole sviluppare un proprio motore)

    +

    Se vuoi installare RealtimeTTS solo per l'uso locale di Coqui TTS neurale, dovresti utilizzare:

    +
    pip install realtimetts[coqui]
    +
    +

    Per esempio, se vuoi installare RealtimeTTS solo con il supporto per Azure Cognitive Services Speech, ElevenLabs e OpenAI:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    Installazione in Ambiente Virtuale

    +

    Per chi vuole eseguire un'installazione completa all'interno di un ambiente virtuale, seguire questi passaggi:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    Maggiori informazioni sull'installazione CUDA.

    +

    Requisiti dei Motori

    +

    I diversi motori supportati da RealtimeTTS hanno requisiti unici. Assicurati di soddisfare questi requisiti in base al motore che scegli.

    +

    SystemEngine

    +

    Il SystemEngine funziona subito con le capacità TTS integrate nel tuo sistema. Non è necessaria alcuna configurazione aggiuntiva.

    +

    GTTSEngine

    +

    Il GTTSEngine funziona subito utilizzando l'API text-to-speech di Google Translate. Non è necessaria alcuna configurazione aggiuntiva.

    +

    OpenAIEngine

    +

    Per utilizzare OpenAIEngine: +- impostare la variabile d'ambiente OPENAI_API_KEY +- installare ffmpeg (vedi installazione CUDA punto 3)

    +

    AzureEngine

    +

    Per utilizzare AzureEngine, avrai bisogno di: +- Chiave API Microsoft Azure Text-to-Speech (fornita tramite il parametro del costruttore AzureEngine "speech_key" o nella variabile d'ambiente AZURE_SPEECH_KEY) +- Regione del servizio Microsoft Azure.

    +

    Assicurati di avere queste credenziali disponibili e configurate correttamente quando inizializzi AzureEngine.

    +

    ElevenlabsEngine

    +

    Per ElevenlabsEngine, hai bisogno di: +- Chiave API Elevenlabs (fornita tramite il parametro del costruttore ElevenlabsEngine "api_key" o nella variabile d'ambiente ELEVENLABS_API_KEY) +- mpv installato sul tuo sistema (essenziale per lo streaming audio mpeg, Elevenlabs fornisce solo mpeg).

    +

    🔹 Installazione di mpv: + - macOS: + brew install mpv

    +
      +
    • Linux e Windows: Visita mpv.io per le istruzioni di installazione.
    • +
    +

    CoquiEngine

    +

    Fornisce TTS neurale locale di alta qualità con clonazione vocale.

    +

    Scarica prima un modello TTS neurale. Nella maggior parte dei casi sarà abbastanza veloce per il tempo reale utilizzando la sintesi GPU. Richiede circa 4-5 GB di VRAM.

    +
      +
    • per clonare una voce inviare il nome del file di un file wave contenente la voce sorgente come parametro "voice" al costruttore CoquiEngine
    • +
    • la clonazione vocale funziona meglio con un file WAV mono 16bit a 22050 Hz contenente un breve campione (circa 5-30 sec)
    • +
    +

    Sulla maggior parte dei sistemi sarà necessario il supporto GPU per funzionare abbastanza velocemente per il tempo reale, altrimenti si verificheranno interruzioni.

    +

    Installazione CUDA

    +

    Questi passaggi sono raccomandati per chi richiede migliori prestazioni e ha una GPU NVIDIA compatibile.

    +
    +

    Nota: per verificare se la tua GPU NVIDIA supporta CUDA, visita la lista ufficiale delle GPU CUDA.

    +
    +

    Per utilizzare torch con supporto via CUDA segui questi passaggi:

    +
    +

    Nota: le installazioni più recenti di pytorch potrebbero (non verificato) non necessitare più dell'installazione del Toolkit (e possibilmente cuDNN).

    +
    +
      +
    1. +

      Installa NVIDIA CUDA Toolkit: + Per esempio, per installare il Toolkit 12.X, per favore

      +
        +
      • Visita NVIDIA CUDA Downloads.
      • +
      • Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo.
      • +
      • Scarica e installa il software.
      • +
      +

      o per installare il Toolkit 11.8, per favore +- Visita NVIDIA CUDA Toolkit Archive. +- Seleziona il tuo sistema operativo, architettura di sistema e versione del sistema operativo. +- Scarica e installa il software.

      +
    2. +
    3. +

      Installa NVIDIA cuDNN:

      +

      Per esempio, per installare cuDNN 8.7.0 per CUDA 11.x per favore +- Visita NVIDIA cuDNN Archive. +- Clicca su "Download cuDNN v8.7.0 (28 Novembre 2022), per CUDA 11.x". +- Scarica e installa il software.

      +
    4. +
    5. +

      Installa ffmpeg:

      +

      Puoi scaricare un installer per il tuo sistema operativo dal sito web ffmpeg.

      +

      Oppure usa un gestore pacchetti:

      +
        +
      • +

        Su Ubuntu o Debian: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Su Arch Linux: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Su MacOS usando Homebrew (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        Su Windows usando Chocolatey (https://chocolatey.org/): + choco install ffmpeg

        +
      • +
      • +

        Su Windows usando Scoop (https://scoop.sh/): + scoop install ffmpeg

        +
      • +
      +
    6. +
    7. +

      Installa PyTorch con supporto CUDA:

      +

      Per aggiornare la tua installazione PyTorch per abilitare il supporto GPU con CUDA, segui queste istruzioni basate sulla tua versione CUDA specifica. Questo è utile se desideri migliorare le prestazioni di RealtimeSTT con le capacità CUDA.

      +
        +
      • +

        Per CUDA 11.8:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 11.8, usa i seguenti comandi:

        +

        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      • +

        Per CUDA 12.X:

        +

        Per aggiornare PyTorch e Torchaudio per supportare CUDA 12.X, esegui quanto segue:

        +

        pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

        +
      • +
      +

      Sostituisci 2.3.1 con la versione di PyTorch che corrisponde al tuo sistema e requisiti.

      +
    8. +
    9. +

      Fix per risolvere problemi di compatibilità: + Se riscontri problemi di compatibilità delle librerie, prova a impostare queste librerie a versioni fisse:

      +
    10. +
    +

    ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/it/usage/index.html b/zh/it/usage/index.html new file mode 100755 index 0000000..db7a83d --- /dev/null +++ b/zh/it/usage/index.html @@ -0,0 +1,2147 @@ + + + + + + + + + + + + + + + + + + + + + + + Italiano - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    Utilizzo

    +

    Avvio Rapido

    +

    Ecco un esempio di utilizzo base:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +engine = SystemEngine() # sostituisci con il tuo motore TTS
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    Inserimento del Testo

    +

    Puoi inserire singole stringhe:

    +
    stream.feed("Hello, this is a sentence.")
    +
    +

    Oppure puoi inserire generatori e iteratori di caratteri per lo streaming in tempo reale:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    Riproduzione

    +

    In modo asincrono:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    In modo sincrono:

    +
    stream.play()
    +
    +

    Test della Libreria

    +

    La sottodirectory test contiene una serie di script per aiutarti a valutare e comprendere le capacità della libreria RealtimeTTS.

    +

    Nota che la maggior parte dei test si basa ancora sulla "vecchia" API OpenAI (<1.0.0). L'utilizzo della nuova API OpenAI è dimostrato in openai_1.0_test.py.

    +
      +
    • +

      simple_test.py

      +
        +
      • Descrizione: Una dimostrazione stile "hello world" dell'utilizzo più semplice della libreria.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • Descrizione: Una dimostrazione completa che mostra la maggior parte delle funzionalità fornite dalla libreria.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • Descrizione: Test del motore TTS coqui locale.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Traduzioni in tempo reale in sei lingue diverse.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Interfaccia utente vocale attivata da parola chiave per l'API OpenAI.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • Dipendenze: Esegui pip install openai keyboard realtimestt.
      • +
      • Descrizione: Scegli il motore TTS e la voce prima di iniziare la conversazione con l'IA.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • Dipendenze: Esegui pip install openai realtimestt.
      • +
      • Descrizione: Un talkbot base in 20 righe di codice.
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Semplice dimostrazione di come integrare la libreria con i modelli linguistici di grandi dimensioni (LLM).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • Dipendenze: Esegui pip install openai.
      • +
      • Descrizione: Mostra i callback e ti permette di verificare i tempi di latenza in un ambiente applicativo reale.
      • +
      +
    • +
    +

    Pausa, Ripresa e Stop

    +

    Metti in pausa lo stream audio:

    +
    stream.pause()
    +
    +

    Riprendi uno stream in pausa:

    +
    stream.resume()
    +
    +

    Ferma immediatamente lo stream:

    +
    stream.stop()
    +
    +

    Requisiti Spiegati

    +
      +
    • Versione Python:
    • +
    • Richiesto: Python >= 3.9, < 3.13
    • +
    • +

      Motivo: La libreria dipende dalla libreria GitHub "TTS" di coqui, che richiede versioni Python in questo intervallo.

      +
    • +
    • +

      PyAudio: per creare uno stream audio di output

      +
    • +
    • +

      stream2sentence: per dividere il flusso di testo in ingresso in frasi

      +
    • +
    • +

      pyttsx3: Motore di conversione text-to-speech di sistema

      +
    • +
    • +

      pydub: per convertire i formati dei chunk audio

      +
    • +
    • +

      azure-cognitiveservices-speech: Motore di conversione text-to-speech di Azure

      +
    • +
    • +

      elevenlabs: Motore di conversione text-to-speech di Elevenlabs

      +
    • +
    • +

      coqui-TTS: Libreria text-to-speech XTTS di Coqui per TTS neurale locale di alta qualità

      +
    • +
    +

    Un ringraziamento speciale a Idiap Research Institute per il mantenimento di un fork di coqui tts.

    +
      +
    • +

      openai: per interagire con l'API TTS di OpenAI

      +
    • +
    • +

      gtts: Conversione text-to-speech di Google translate

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ja/api/index.html b/zh/ja/api/index.html new file mode 100755 index 0000000..e3e5ebb --- /dev/null +++ b/zh/ja/api/index.html @@ -0,0 +1,2814 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    日本語

    + +

    設定

    +

    TextToAudioStreamの初期化パラメータ

    +

    TextToAudioStreamクラスを初期化する際、その動作をカスタマイズするための様々なオプションがあります。利用可能なパラメータは以下の通りです:

    +

    engine (BaseEngine)

    +
      +
    • : BaseEngine
    • +
    • 必須: はい
    • +
    • 説明: テキストから音声への合成を担当する基盤エンジンです。音声合成を有効にするには、BaseEngineまたはそのサブクラスのインスタンスを提供する必要があります。
    • +
    +

    on_text_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが開始されたときにトリガーされるオプションのコールバック関数です。セットアップやログ記録に使用できます。
    • +
    +

    on_text_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: テキストストリームが終了したときに実行されるオプションのコールバック関数です。クリーンアップタスクやログ記録に使用できます。
    • +
    +

    on_audio_stream_start (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが開始されたときに呼び出されるオプションのコールバック関数です。UIの更新やイベントログに役立ちます。
    • +
    +

    on_audio_stream_stop (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 音声ストリームが停止したときに呼び出されるオプションのコールバック関数です。リソースのクリーンアップや後処理タスクに最適です。
    • +
    +

    on_character (callable)

    +
      +
    • : 呼び出し可能な関数
    • +
    • 必須: いいえ
    • +
    • 説明: 一文字が処理されるたびに呼び出されるオプションのコールバック関数です。
    • +
    +

    output_device_index (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: None
    • +
    • 説明: 使用する出力デバイスのインデックスを指定します。Noneの場合はデフォルトデバイスを使用します。
    • +
    +

    tokenizer (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: nltk
    • +
    • 説明: 文分割に使用するトークナイザー(現在は"nltk"と"stanza"がサポートされています)。
    • +
    +

    language (string)

    +
      +
    • : 文字列
    • +
    • 必須: いいえ
    • +
    • デフォルト値: en
    • +
    • 説明: 文分割に使用する言語。
    • +
    +

    muted (bool)

    +
      +
    • : 真偽値
    • +
    • 必須: いいえ
    • +
    • デフォルト値: False
    • +
    • 説明: グローバルなミュートパラメータ。Trueの場合、pyAudioストリームは開かれません。ローカルスピーカーを介した音声再生を無効にし(ファイルへの合成や音声チャンクの処理を行う場合)、playパラメータのミュート設定を上書きします。
    • +
    +

    level (int)

    +
      +
    • : 整数
    • +
    • 必須: いいえ
    • +
    • デフォルト値: logging.WARNING
    • +
    • 説明: 内部ロガーのログレベルを設定します。Pythonの組み込みloggingモジュールの任意の整数定数を使用できます。
    • +
    +

    使用例:

    +
    engine = YourEngine()  # あなたのエンジンで置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +```python
    +engine = YourEngine()  # あなたのエンジンに置き換えてください
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    メソッド

    +

    playplay_async

    +

    これらのメソッドはテキストから音声への合成と音声ストリームの再生を担当します。playはブロッキング関数である一方、play_asyncは別のスレッドで実行され、他の操作を続行できるという違いがあります。

    +
    パラメータ:
    +
    fast_sentence_fragment (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueに設定すると、文章の断片をより速く生成して再生することを優先します。レイテンシーが重要なアプリケーションに有用です。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、最初の文だけでなく、すべての文に対して高速な文章断片処理を適用します。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueに設定すると、単一の文章断片ではなく、複数の文章断片を生成することができます。
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • デフォルト値: 0.0
    • +
    • +

      説明: 音声再生の滑らかさと連続性に影響を与えるバッファリングのしきい値を秒単位で指定します。

      +
    • +
    • +

      動作原理: 新しい文を合成する前に、システムはバッファにbuffer_threshold_secondsで指定された時間以上の音声材料が残っているかチェックします。残っている場合、テキストジェネレータから別の文を取得します。これは、バッファに残っている音声の時間枠内で新しい文を取得して合成できると仮定しています。このプロセスにより、テキスト音声変換エンジンがより良い合成のためのコンテキストを持つことができ、ユーザー体験を向上させます。

      +
    • +
    +

    より高い値を設定すると、より多くの音声がプリバッファされ、再生中の無音や隙間が発生する可能性が減少します。途切れや一時停止が発生する場合は、この値を増やすことを検討してください。

    +
    minimum_sentence_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 合成する文として扱う文字列の最小文字数を設定します。これはテキストチャンクの処理と再生方法に影響します。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • デフォルト値: 10
    • +
    • 説明: 最初の文章断片を生成する前に必要な最小文字数です。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: 有効にすると、音声に合成されるテキストチャンクをログに記録します。監査やデバッグに役立ちます。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • デフォルト値: True
    • +
    • 説明: Trueの場合、処理前に生成されたテキストをリセットします。
    • +
    +
    output_wavfile (str)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 設定すると、指定されたWAVファイルに音声を保存します。
    • +
    +
    on_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成された後に呼び出されるコールバック関数です。
    • +
    +
    before_sentence_synthesized (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の文章断片が合成される前に呼び出されるコールバック関数です。
    • +
    +
    on_audio_chunk (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 単一の音声チャンクが準備できたときに呼び出されるコールバック関数です。
    • +
    +
    tokenizer (str)
    +
      +
    • デフォルト値: "nltk"
    • +
    • 説明: 文分割に使用するトークナイザーです。現在は"nltk"と"stanza"をサポートしています。
    • +
    +
    tokenize_sentences (callable)
    +
      +
    • デフォルト値: None
    • +
    • 説明: 入力テキストから文を分割するカスタム関数です。nltkやstanzaに満足できない場合、独自の軽量トークナイザーを提供できます。テキストを文字列として受け取り、分割された文を文字列のリストとして返す必要があります。
    • +
    +
    language (str)
    +
      +
    • デフォルト値: "en"
    • +
    • 説明: 文分割に使用する言語です。
    • +
    +
    context_size (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界検出のために使用される文字数です。より大きなコンテキストは文境界の検出精度を向上させます。
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • デフォルト値: 12
    • +
    • 説明: 文境界を検出する際の先読みのための追加のコンテキストサイズです。
    • +
    +
    muted (bool)
    +
      +
    • デフォルト値: False
    • +
    • 説明: Trueの場合、ローカルスピーカーを介した音声再生を無効にします。ファイルに合成したり、音声チャンクを再生せずに処理したりする場合に有用です。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • デフォルト値: ".?!;:,\n…)]}。-"
    • +
    • 説明: 文の区切り文字として扱われる文字の文字列です。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • デフォルト値: 15
    • +
    • 説明: 最初の文章断片を生成する必要がある単語数です。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ja/contributing/index.html b/zh/ja/contributing/index.html new file mode 100755 index 0000000..5c14e68 --- /dev/null +++ b/zh/ja/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTSへの貢献

    +

    RealtimeTTSへの貢献を歓迎します! ここにあなたが貢献できるいくつかの方法があります:

    +
      +
    1. +

      バグの報告: バグを見つけた場合は、GitHubリポジトリにイシューを開いてください。

      +
    2. +
    3. +

      改善提案: 新機能や改善のアイデアはありますか? ぜひお聞かせください! 改善提案のために問題を開いてください。

      +
    4. +
    5. +

      コードの貢献: 新しい機能を追加したり、バグを修正したりしたいですか? すごい! これらの手順に従ってください。

      +
    6. +
    7. リポジトリをフォークする
    8. +
    9. 機能のための新しいブランチを作成する
    10. +
    11. 変更を加える
    12. +
    13. +

      変更内容を明確に説明したプルリクエストを提出してください

      +
    14. +
    15. +

      ドキュメント: タイポを修正したり、例を追加したり、わかりにくい部分を明確にすることで、私たちのドキュメントを改善する手助けをしてください。

      +
    16. +
    17. +

      新しいエンジンの追加: 新しいTTSエンジンのサポートを追加したい場合は、まず実装について議論するためにイシューを開いてください。

      +
    18. +
    +

    RealtimeTTSをより良くするために協力していただきありがとうございます!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ja/faq/index.html b/zh/ja/faq/index.html new file mode 100755 index 0000000..49da408 --- /dev/null +++ b/zh/ja/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    よくある質問

    +

    RealtimeTTSに関するよくある質問の回答については、GitHubのFAQページをご覧ください。

    +

    このページでは、次のようなさまざまなトピックを取り上げています。

    +
      +
    • 異なるTTSエンジンの使用
    • +
    • 多言語テキストの取り扱い
    • +
    • パフォーマンスの最適化
    • +
    • 一般的な問題のトラブルシューティング
    • +
    +

    詳細な情報については、上記のリンクをご覧ください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ja/index.html b/zh/ja/index.html new file mode 100755 index 0000000..1a64162 --- /dev/null +++ b/zh/ja/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    リアルタイムTTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    リアルタイムアプリケーション向けの使いやすく、低遅延のテキスト読み上げライブラリ

    +

    プロジェクトについて

    +

    RealtimeTTSは、リアルタイムアプリケーション向けに設計された最先端のテキスト読み上げ(TTS)ライブラリです。 それは、テキストストリームを迅速に高品質な音声出力に変換する能力において際立っています。

    +

    主な特徴

    +
      +
    • 低遅延: ほぼ瞬時にテキストを音声に変換し、LLM出力と互換性があります
    • +
    • 高品質な音声: 明瞭で自然な音声を生成します
    • +
    • 複数のTTSエンジンサポート: OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS、System TTSをサポートします
    • +
    • 多言語対応
    • +
    • 堅牢で信頼性が高い: フォールバックメカニズムを通じて継続的な運用を保証し、障害が発生した場合には代替エンジンに切り替えて、一貫したパフォーマンスと信頼性を確保します。
    • +
    +

    インストール手順、使用例、およびAPIリファレンスについては、サイドバーを使用してドキュメントを参照してください。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ja/installation/index.html b/zh/ja/installation/index.html new file mode 100755 index 0000000..91851ae --- /dev/null +++ b/zh/ja/installation/index.html @@ -0,0 +1,2155 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    日本語

    + +
    +

    注意: pip install realtimetts での基本インストールは推奨されなくなりました。代わりに pip install realtimetts[all] を使用してください。

    +
    +

    RealtimeTTSライブラリは、あなたのユースケースに応じたさまざまな依存関係のインストールオプションを提供します。 ニーズに応じてRealtimeTTSをインストールする方法はいくつかあります:

    +

    フルインストール

    +

    すべてのTTSエンジンに対応したRealtimeTTSをインストールするには:

    +
    pip install -U realtimetts[all]
    +
    +

    カスタムインストール

    +

    RealtimeTTSは、最小限のライブラリインストールでカスタムインストールを可能にします。 こちらが利用可能なオプションです。 +- すべて: すべてのエンジンがサポートされた完全なインストール。 +- システム: システム固有のTTS機能を含む (e.g., pyttsx3). +- azure: Azure Cognitive Services Speechサポートを追加します。 +- elevenlabs: ElevenLabs APIとの統合が含まれています。 +- openai: OpenAIの音声サービス用。 +- gtts: Google テキスト読み上げサポート。 +- coqui: Coqui TTSエンジンをインストールします。 +- minimal: エンジンなしで基本要件のみをインストール (only needed if you want to develop an own engine)

    +

    ローカルの神経系Coqui TTSでのみRealtimeTTSをインストールしたい場合は、次のようにしてください:

    +
    pip install realtimetts[coqui]
    +
    +

    例えば、Azure Cognitive Services Speech、ElevenLabs、OpenAIのサポートのみでRealtimeTTSをインストールしたい場合:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    仮想環境のインストール

    +

    仮想環境内で完全なインストールを行いたい方は、以下の手順に従ってください。

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.
    +```バット
    +python.exe -m pip install --pipをアップグレード
    +pip install -U realtimetts[all]
    +テキストを翻訳してください: ```
    +
    +[CUDAインストール](#cuda-installation)に関する詳細情報。
    +
    +## エンジン要件
    +
    +RealtimeTTSがサポートする異なるエンジンには、それぞれ独自の要件があります。 選択したエンジンに基づいてこれらの要件を満たすようにしてください。
    +
    +### システムエンジン
    +`SystemEngine`は、システムに内蔵されたTTS機能とそのまま使えます。 追加の設定は必要ありません。
    +
    +### GTTSEngine
    +`GTTSEngine`は、Google翻訳のテキスト読み上げAPIを使用して、すぐに使える状態で動作します。 追加の設定は必要ありません。
    +
    +### OpenAIエンジン
    +`OpenAIEngine`を使用するには:
    +- 環境変数 OPENAI_API_KEY を設定する
    +- ffmpeg をインストールする([CUDA インストール](#cuda-installation)の3番目のポイントを参照)
    +
    +### AzureEngine
    +`AzureEngine`を使用するには、次のものが必要です:
    +- Microsoft Azure Text-to-Speech APIキー(AzureEngineコンストラクタのパラメータ「speech_key」または環境変数AZURE_SPEECH_KEYで提供されます)
    +- マイクロソフトAzureサービスリージョン。
    +
    +`AzureEngine`を初期化する際に、これらの資格情報が利用可能で正しく設定されていることを確認してください。
    +
    +### ElevenlabsEngine
    +`ElevenlabsEngine`には、次のものが必要です:
    +- Elevenlabs APIキー(ElevenlabsEngineコンストラクタのパラメータ「api_key」または環境変数ELEVENLABS_API_KEYで提供されます)
    +- システムに`mpv`がインストールされています (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).
    +
    +  🔹 **`mpv`のインストール:**
    +  - **macOS**:
    +    ```plaintext
    +brew install mpv
    +
    +
      +
    • LinuxおよびWindows: インストール手順についてはmpv.ioをご覧ください。
    • +
    +

    CoquiEngine

    +

    高品質でローカルなニューラルTTSをボイスクローン機能付きで提供します。

    +

    まず、ニューラルTTSモデルをダウンロードします。 ほとんどの場合、GPU合成を使用すればリアルタイムで十分な速度になります。 約4〜5GBのVRAMが必要です。

    +
      +
    • 声をクローンするには、ソース音声を含むWAVファイルのファイル名を「voice」パラメータとしてCoquiEngineコンストラクタに提出してください。
    • +
    • 声のクローンは、短い(約5〜30秒)サンプルを含む22050 Hzモノ16ビットWAVファイルで最も効果的です。
    • +
    +

    ほとんどのシステムでは、リアルタイムで十分な速度を出すためにGPUサポートが必要です。さもなければ、カクつきが発生します。

    +

    CUDAのインストール

    +

    これらの手順は、より良いパフォーマンスを必要とし、互換性のあるNVIDIA GPUを持っている方に推奨されます。

    +
    +

    注意: お使いのNVIDIA GPUがCUDAをサポートしているか確認するには、公式CUDA GPUリストをご覧ください。

    +
    +

    CUDAをサポートするTorchを使用するには、次の手順に従ってください。

    +
    +

    注意: 新しいPyTorchのインストールでは、かもしれない(未確認)がToolkit(およびおそらくcuDNN)のインストールを必要としないかもしれません。

    +
    +
      +
    1. +

      NVIDIA CUDA Toolkitをインストールする: + 例えば、Toolkit 12.Xをインストールするには、

      +
        +
      • NVIDIA CUDA Downloadsを訪れてください。
      • +
      • オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。
      • +
      +

      または、Toolkit 11.8をインストールするには、 +- NVIDIA CUDA Toolkit Archiveをご覧ください。 +- オペレーティングシステム、システムアーキテクチャ、およびOSバージョンを選択してください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    2. +
    3. +

      NVIDIA cuDNNをインストールする:

      +

      例えば、CUDA 11.x用のcuDNN 8.7.0をインストールするには、次の手順を行ってください。 +- NVIDIA cuDNNアーカイブを訪問してください。 +「Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x」をクリックしてください。 +ソフトウェアをダウンロードしてインストールしてください。

      +
    4. +
    5. +

      ffmpegをインストールする:

      +

      ffmpegウェブサイトからお使いのOS用のインストーラーをダウンロードできます。

      +

      またはパッケージマネージャーを使用してください:

      +
        +
      • +

        UbuntuまたはDebianの場合: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linuxで: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrewを使用してMacOSで (https://brew.sh/): + ```plaintext +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolateyを使用してWindowsで** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +
    +
    - **Scoopを使用してWindowsで** ([https://scoop.sh/](https://scoop.sh/)):
    +    ```
    +    scoop install ffmpeg
    +
    +
    
    +4. **CUDAサポート付きのPyTorchをインストールする**:
    +
    +    CUDAでGPUサポートを有効にするためにPyTorchのインストールをアップグレードするには、特定のCUDAバージョンに基づいてこれらの指示に従ってください。 これは、CUDA機能を使用してRealtimeSTTのパフォーマンスを向上させたい場合に役立ちます。
    +
    +    - **CUDA 11.8の場合:**
    +
    +        PyTorchとTorchaudioをCUDA 11.8に対応させるために、次のコマンドを使用してください。
    +
    +        ```plaintext
    +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        テキストを翻訳する: ```
    +
    +- **CUDA 12.Xの場合:**
    +
    +
    +    PyTorchとTorchaudioをCUDA 12.Xに対応させるために、次のコマンドを実行してください。
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +テキストを翻訳する:

    +
    `2.3.1` をあなたのシステムと要件に合ったPyTorchのバージョンに置き換えてください。
    +
    +
      +
    1. 互換性の問題を解決するための修正: + ライブラリの互換性の問題が発生した場合は、これらのライブラリを固定バージョンに設定してみてください。
    2. +
    +

    テキストを翻訳する: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ja/usage/index.html b/zh/ja/usage/index.html new file mode 100755 index 0000000..252b9fa --- /dev/null +++ b/zh/ja/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 日本語 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    使用

    +

    クイックスタート

    +

    基本的な使用例は次のとおりです。

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # あなたのTTSエンジンに置き換えてください +ストリーム = TextToAudioStream(engine) +stream.feed("こんにちは、世界!") 今日はどうですか? +stream.play_async()

    +

    フィードテキスト

    +

    個別の文字列を入力できます:

    +
    stream.feed("こんにちは、これは文です。")
    +
    +

    または、リアルタイムストリーミングのためにジェネレーターやキャラクターイテレーターを使用することもできます。

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```チャット完了。作成(
    +        モデル="gpt-3.5-turbo",
    +        メッセージ=[{"役割": "ユーザー", "内容": プロンプト}],
    +        ストリーム=True
    +    ):
    +        もし (text_chunk := chunk["choices"]テキストを翻訳してください。["デルタ"].get("content")) は None ではない:
    +            テキストチャンクを生成
    +
    +テキストストリーム = 書き込み("A three-sentence relaxing speech.")
    +
    +ストリームにテキストストリームをフィードする
    +
    +```python
    +char_iterator = iter("文字を1文字ずつストリーミングします。")
    +stream.feed(char_iterator)
    +
    +

    再生

    +

    非同期で:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同時に:

    +
    stream.play()
    +
    +

    ライブラリのテスト

    +

    テストサブディレクトリには、RealtimeTTSライブラリの機能を評価し理解するための一連のスクリプトが含まれています。

    +

    ほとんどのテストはまだ「古い」OpenAI API(<1.0.0)に依存していることに注意してください。 新しいOpenAI APIの使用方法はopenai_1.0_test.pyで示されています。

    +
      +
    • +

      simple_test.py

      +
        +
      • 説明: ライブラリの最も簡単な使い方を示す「ハローワールド」スタイルのデモ。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 説明: ライブラリが提供するほとんどの機能を紹介する包括的なデモ。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 説明: ローカルのcoqui TTSエンジンのテスト。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 6つの異なる言語へのリアルタイム翻訳。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依存関係: pip install openai realtimestt を実行してください。
      • +
      • 説明: ウェイクワードがアクティブになり、OpenAI APIへの音声ベースのユーザーインターフェース。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依存関係: pip install openai keyboard realtimesttを実行してください。
      • +
      • 説明: AI会話を始める前に、TTSエンジンと声を選択してください。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依存関係: pip install openai realtimesttを実行してください。
      • +
      • 説明: 20行のコードで作る基本的なトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: ライブラリを大規模言語モデルに統合する簡単なデモ (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openaiを実行してください。
      • +
      • 説明: コールバックを紹介し、実際のアプリケーション環境でレイテンシー時間を確認できるようにします。
      • +
      +
    • +
    +

    一時停止、再開、停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止中のストリームを再開する:

    +
    stream.resume()
    +
    +

    すぐに配信を停止してください。

    +
    stream.stop()
    +
    +

    要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必要条件: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリは、coquiのGitHubライブラリ「TTS」に依存しており、これにはこの範囲のPythonバージョンが必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するために

      +
    • +
    • +

      stream2sentence: 入力されたテキストストリームを文に分割する

      +
    • +
    • +

      pyttsx3: システム音声合成エンジン

      +
    • +
    • +

      pydub: オーディオチャンクのフォーマットを変換するために

      +
    • +
    • +

      azure-cognitiveservices-speech: Azure テキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabs テキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTSのためのCoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap Research Institutecoqui ttsのフォークを維持していることに感謝します。

    +
      +
    • +

      openai: OpenAIのTTS APIと対話するために

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ko/api/index.html b/zh/ko/api/index.html new file mode 100755 index 0000000..02c155f --- /dev/null +++ b/zh/ko/api/index.html @@ -0,0 +1,2792 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    한국어

    + +

    구성

    +

    TextToAudioStream 초기화 매개변수

    +

    TextToAudioStream 클래스를 초기화할 때, 그 동작을 사용자 정의할 수 있는 다양한 옵션이 있습니다. 사용 가능한 매개변수는 다음과 같습니다:

    +

    engine (BaseEngine)

    +
      +
    • 유형: BaseEngine
    • +
    • 필수: 네 텍스트를 오디오로 변환하는 데 책임이 있는 기본 엔진. 오디오 합성을 활성화하려면 BaseEngine 또는 그 하위 클래스의 인스턴스를 제공해야 합니다.
    • +
    +

    on_text_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 시작될 때 호출됩니다. 필요한 설정이나 로깅에 사용하세요.
    • +
    +

    on_text_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 텍스트 스트림이 끝날 때 활성화됩니다. 이것을 정리 작업이나 로깅에 사용할 수 있습니다.
    • +
    +

    on_audio_stream_start (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 시작될 때 호출됩니다. UI 업데이트나 이벤트 로깅에 유용합니다.
    • +
    +

    on_audio_stream_stop (호출 가능)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 오디오 스트림이 중지될 때 호출됩니다. 리소스 정리나 후처리 작업에 적합합니다.
    • +
    +

    on_character (callable)

    +
      +
    • 유형: 호출 가능한 함수
    • +
    • 필수: 아니요 이 선택적 콜백 함수는 단일 문자가 처리될 때 호출됩니다.
    • +
    +

    output_device_index (int)

    +
      +
    • 유형: 정수
    • +
    • 필수: 아니요 사용할 출력 장치 인덱스를 지정합니다. 아무도 기본 장치를 사용하지 않습니다.
    • +
    +

    tokenizer (string)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요
    • +
    • 기본값: nltk
    • +
    • 설명: 문장 분할에 사용할 토크나이저 (currently "nltk" and "stanza" are supported).
    • +
    +

    language (문자열)

    +
      +
    • 유형: 문자열
    • +
    • 필수: 아니요 문장 분할에 사용할 언어.
    • +
    +

    muted (bool)

    +
      +
    • 유형: Bool
    • +
    • 필수: 아니오
    • +
    • 기본값: False
    • +
    • 설명: 전역 음소거 매개변수. 참이면, pyAudio 스트림이 열리지 않습니다. 로컬 스피커를 통한 오디오 재생을 비활성화합니다 (파일로 합성하거나 오디오 청크를 처리하려는 경우) 및 재생 매개변수의 음소거 설정을 무시합니다.
    • +
    +

    level (int)

    +
      +
    • Type: 정수
    • +
    • Required: 아니요
    • +
    • 기본값: logging.WARNING
    • +
    • 설명: 내부 로거의 로깅 수준을 설정합니다. 이는 Python의 내장 logging 모듈에서 제공하는 정수 상수일 수 있습니다.
    • +
    +

    예시 사용법:

    +
    engine = YourEngine()  # 엔진을 당신의 엔진으로 대체하세요
    +stream = TextToAudioStream(
    +    engine=engine,
    +    on_text_stream_start=my_text_start_func,
    +    on_text_stream_stop=my_text_stop_func,
    +    on_audio_stream_start=my_audio_start_func,
    +    on_audio_stream_stop=my_audio_stop_func,
    +    level=logging.INFO
    +)
    +
    +

    방법

    +

    playplay_async

    +

    이 방법들은 텍스트-오디오 합성을 실행하고 오디오 스트림을 재생하는 역할을 합니다. 차이점은 play가 블로킹 함수인 반면, play_async는 별도의 스레드에서 실행되어 다른 작업이 진행될 수 있다는 것입니다.

    +
    매개변수:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: True로 설정하면, 이 방법은 속도를 우선시하여 문장 조각을 더 빨리 생성하고 재생합니다. 이는 지연 시간이 중요한 애플리케이션에 유용합니다.
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 첫 번째 문장뿐만 아니라 모든 문장에 대해 빠른 문장 조각 처리를 적용합니다.
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: True로 설정하면 단일 문장 조각 대신 여러 문장 조각을 생성할 수 있습니다.
    • +
    +
    buffer_threshold_seconds (float)
    +
      +
    • 기본값: 0.0
    • +
    • +

      설명: 버퍼링 임계값을 초 단위로 지정하며, 이는 오디오 재생의 부드러움과 연속성에 영향을 미칩니다.

      +
    • +
    • +

      작동 방식: 새로운 문장을 합성하기 전에 시스템은 버퍼에 남아 있는 오디오 자료가 buffer_threshold_seconds로 지정된 시간보다 더 많은지 확인합니다. 그렇다면, 텍스트 생성기에서 또 다른 문장을 가져오는데, 이는 버퍼에 남아 있는 오디오의 시간 창 내에서 이 새로운 문장을 가져오고 합성할 수 있다고 가정합니다. 이 과정은 텍스트 음성 변환 엔진이 더 나은 합성을 위해 더 많은 맥락을 갖도록 하여 사용자 경험을 향상시킵니다.

      +
    • +
    +

    더 높은 값은 더 많은 미리 버퍼링된 오디오를 보장하여 재생 중 침묵이나 간격이 발생할 가능성을 줄여줍니다. 중단이나 일시 정지가 발생하면 이 값을 늘려보세요.

    +
    minimum_sentence_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 문자열을 합성할 문장으로 간주하기 위한 최소 문자 길이를 설정합니다. 이것은 텍스트 청크가 처리되고 재생되는 방식에 영향을 미칩니다.
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 기본값: 10
    • +
    • 설명: 양보하기 전에 첫 번째 문장 조각에 필요한 최소 문자 수.
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 활성화되면, 텍스트 조각이 오디오로 합성될 때 로그를 기록합니다. 감사 및 디버깅에 유용합니다.
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 기본값: True
    • +
    • 설명: 참이면, 처리하기 전에 생성된 텍스트를 재설정하세요.
    • +
    +
    output_wavfile (str)
    +
      +
    • 기본값: None
    • +
    • 설명: 설정된 경우, 오디오를 지정된 WAV 파일로 저장합니다.
    • +
    +
    on_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 문장 조각이 합성된 후 호출되는 콜백 함수.
    • +
    +
    before_sentence_synthesized (호출 가능)
    +
      +
    • 기본값: 없음
    • +
    • 설명: 단일 문장 조각이 합성되기 전에 호출되는 콜백 함수.
    • +
    +
    on_audio_chunk (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 단일 오디오 청크가 준비되면 호출되는 콜백 함수.
    • +
    +
    tokenizer (str)
    +
      +
    • 기본값: "nltk"
    • +
    • 설명: 문장 분리를 위한 토크나이저. 현재 "nltk"와 "stanza"를 지원합니다.
    • +
    +
    tokenize_sentences (호출 가능)
    +
      +
    • 기본값: None
    • +
    • 설명: 입력 텍스트에서 문장을 토큰화하는 사용자 정의 함수. nltk와 stanza에 만족하지 않으면 자신만의 경량 토크나이저를 제공할 수 있습니다. 텍스트를 문자열로 받아서 문장으로 나눈 후 문자열 목록으로 반환해야 합니다.
    • +
    +
    language (str)
    +
      +
    • 기본값: "en"
    • +
    • 설명: 문장 분할에 사용할 언어.
    • +
    +
    context_size (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계 감지를 위한 컨텍스트를 설정하는 데 사용되는 문자 수. 더 넓은 맥락이 문장 경계를 감지하는 정확성을 높입니다.
    • +
    +
    context_size_look_overhead (int)
    +
      +
    • 기본값: 12
    • +
    • 설명: 문장 경계를 감지할 때 미리 보기 위한 추가 컨텍스트 크기.
    • +
    +
    muted (bool)
    +
      +
    • 기본값: False
    • +
    • 설명: 참이면, 로컬 스피커를 통한 오디오 재생을 비활성화합니다. 파일로 합성하거나 오디오 청크를 재생하지 않고 처리할 때 유용합니다.
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 기본값: ".?!;:,\n…)]}。-" 문장 구분자로 간주되는 문자 문자열.
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 기본값: 15
    • +
    • 설명: 첫 번째 문장 조각이 강제로 생성되는 단어 수.
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ko/contributing/index.html b/zh/ko/contributing/index.html new file mode 100755 index 0000000..3982cc0 --- /dev/null +++ b/zh/ko/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS에 기여하기

    +

    RealtimeTTS에 기여해 주시면 환영합니다! 여기 당신이 기여할 수 있는 몇 가지 방법이 있습니다:

    +
      +
    1. +

      버그 신고: 버그를 발견하셨다면, 저희 GitHub 저장소에 이슈를 열어주세요.

      +
    2. +
    3. +

      개선 사항 제안하기: 새로운 기능이나 개선 사항에 대한 아이디어가 있나요? 우리는 그것들을 듣고 싶어요! 개선 사항을 제안하기 위해 이슈를 열어주세요.

      +
    4. +
    5. +

      코드 기여: 새로운 기능을 추가하거나 버그를 수정하고 싶으신가요? 대단해! 다음 단계를 따라주세요:

      +
    6. +
    7. 저장소를 포크하세요
    8. +
    9. 기능을 위한 새로운 브랜치를 만드세요
    10. +
    11. +

      변경 사항을 적용하세요 + 변경 사항에 대한 명확한 설명과 함께 풀 리퀘스트를 제출하세요.

      +
    12. +
    13. +

      문서화: 오타를 수정하거나 예제를 추가하거나 혼란스러운 부분을 명확히 하여 문서화를 개선하는 데 도움을 주세요.

      +
    14. +
    15. +

      새 엔진 추가하기: 새로운 TTS 엔진을 추가하고 싶다면, 먼저 구현에 대해 논의하기 위해 이슈를 열어주세요.

      +
    16. +
    +

    RealtimeTTS를 더 좋게 만드는 데 도움을 주셔서 감사합니다!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ko/faq/index.html b/zh/ko/faq/index.html new file mode 100755 index 0000000..e91c1d2 --- /dev/null +++ b/zh/ko/faq/index.html @@ -0,0 +1,1856 @@ + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    자주 묻는 질문

    +

    RealtimeTTS에 대한 자주 묻는 질문에 대한 답변은 GitHub의 FAQ 페이지를 참조해 주세요.

    +

    이 페이지는 다음과 같은 다양한 주제를 다룹니다:

    +
      +
    • 다양한 TTS 엔진의 사용
    • +
    • 다국어 텍스트 처리
    • +
    • 성능 최적화
    • +
    • 일반적인 문제 해결
    • +
    +

    자세한 정보는 위의 링크를 방문해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ko/index.html b/zh/ko/index.html new file mode 100755 index 0000000..2d2e372 --- /dev/null +++ b/zh/ko/index.html @@ -0,0 +1,1936 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    실시간TTS

    +

    EN | FR | ES | DE | IT | ZH | JA | HI | KO

    +

    실시간 애플리케이션을 위한 사용하기 쉽고 저지연 텍스트 음성 변환 라이브러리

    +

    프로젝트 소개

    +

    RealtimeTTS는 실시간 애플리케이션을 위해 설계된 최첨단 텍스트 음성 변환(TTS) 라이브러리입니다. 텍스트 스트림을 빠르게 고품질의 오디오 출력으로 변환하는 능력에서 두드러집니다.

    +

    주요 특징

    +
      +
    • 저지연: 거의 즉각적인 텍스트 음성 변환, LLM 출력과 호환 가능
    • +
    • 고품질 오디오: 명확하고 자연스러운 음성을 생성합니다.
    • +
    • 다양한 TTS 엔진 지원: OpenAI TTS, Elevenlabs, Azure Speech Services, Coqui TTS, gTTS 및 System TTS를 지원합니다.
    • +
    • 다국어 지원
    • +
    • 견고하고 신뢰할 수 있음: 백업 메커니즘을 통해 지속적인 운영을 보장하며, 중단 시 대체 엔진으로 전환하여 일관된 성능과 신뢰성을 보장합니다.
    • +
    +

    설치 지침, 사용 예제 및 API 참조를 보려면 사이드바를 사용하여 문서를 탐색해 주세요.

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ko/installation/index.html b/zh/ko/installation/index.html new file mode 100755 index 0000000..f02c833 --- /dev/null +++ b/zh/ko/installation/index.html @@ -0,0 +1,2267 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    한국어

    + +
    +

    참고: 이제 pip install realtimetts로 기본 설치하는 것은 권장되지 않으며, 대신 pip install realtimetts[all]를 사용하세요.

    +
    +

    RealtimeTTS 라이브러리는 사용 사례에 맞는 다양한 종속성 설치 옵션을 제공합니다. 여기 당신의 필요에 따라 RealtimeTTS를 설치할 수 있는 다양한 방법이 있습니다:

    +

    전체 설치

    +

    모든 TTS 엔진을 지원하는 RealtimeTTS를 설치하려면:

    +
    pip install -U realtimetts[all]
    +
    +

    맞춤 설치

    +

    RealtimeTTS는 최소한의 라이브러리 설치로 맞춤 설치를 허용합니다. 다음은 이용 가능한 옵션입니다: +- 모두: 모든 엔진이 지원되는 전체 설치. +- 시스템: 시스템별 TTS 기능 포함 (e.g., pyttsx3). +- azure: Azure Cognitive Services Speech 지원을 추가합니다. +- elevenlabs: ElevenLabs API와의 통합을 포함합니다. +- openai: OpenAI 음성 서비스용. +- gtts: 구글 텍스트 음성 변환 지원. +- coqui: Coqui TTS 엔진을 설치합니다. +- 최소: 엔진 없이 기본 요구 사항만 설치 (only needed if you want to develop an own engine)

    +

    로컬 신경망 Coqui TTS 사용을 위해 RealtimeTTS만 설치하고 싶다고 가정해 보세요, 그러면 다음을 사용해야 합니다:

    +
    pip install realtimetts[coqui]
    +
    +

    예를 들어, Azure Cognitive Services Speech, ElevenLabs, OpenAI 지원만으로 RealtimeTTS를 설치하고 싶다면:

    +
    pip install realtimetts[azure,elevenlabs,openai]
    +
    +

    가상 환경 설치

    +

    가상 환경 내에서 전체 설치를 수행하려는 분들은 다음 단계를 따르세요:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    CUDA 설치에 대한 자세한 정보.

    +

    엔진 요구 사항

    +

    RealtimeTTS에서 지원하는 다양한 엔진은 고유한 요구 사항을 가지고 있습니다. 선택한 엔진에 따라 이러한 요구 사항을 충족하도록 하십시오.

    +

    시스템엔진

    +

    SystemEngine은 시스템에 내장된 TTS 기능과 함께 즉시 사용할 수 있습니다. 추가 설정이 필요하지 않습니다.

    +

    GTTSEngine

    +

    GTTSEngine은 Google Translate의 텍스트 음성 변환 API를 사용하여 즉시 작동합니다. 추가 설정이 필요 없습니다.

    +

    오픈AI엔진

    +

    OpenAIEngine을 사용하려면: +- 환경 변수 OPENAI_API_KEY 설정 +- ffmpeg 설치 (참고: CUDA 설치 3번 항목)

    +

    AzureEngine

    +

    AzureEngine을 사용하려면 다음이 필요합니다: +- Microsoft Azure Text-to-Speech API 키 (AzureEngine 생성자 매개변수 "speech_key" 또는 환경 변수 AZURE_SPEECH_KEY를 통해 제공됨) +- 마이크로소프트 애저 서비스 지역.

    +

    AzureEngine을 초기화할 때 이러한 자격 증명이 준비되어 있고 올바르게 구성되어 있는지 확인하세요.

    +

    ElevenlabsEngine

    +

    ElevenlabsEngine을 사용하려면 다음이 필요합니다: +- Elevenlabs API 키 (ElevenlabsEngine 생성자 매개변수 "api_key"를 통해 제공되거나 환경 변수 ELEVENLABS_API_KEY에 설정됨) +- 시스템에 mpv가 설치되어 있습니다. (essential for streaming mpeg audio, Elevenlabs only delivers mpeg).

    +

    🔹 mpv 설치하기: + - macOS: + plaintext + brew install mpv

    +
      +
    • 리눅스와 윈도우: 설치 지침은 mpv.io를 방문하세요.
    • +
    +

    코키엔진

    +

    고품질의 로컬 신경 TTS를 음성 클로닝과 함께 제공합니다.

    +

    먼저 신경 TTS 모델을 다운로드합니다. 대부분의 경우 GPU 합성을 사용하면 실시간으로 충분히 빠를 것입니다. 약 4-5GB의 VRAM이 필요합니다.

    +
      +
    • 음성을 복제하려면 소스 음성이 포함된 WAV 파일의 파일 이름을 "voice" 매개변수로 CoquiEngine 생성자에게 제출하십시오.
    • +
    • 음성 복제는 22050 Hz 모노 16비트 WAV 파일에 짧은 (~5-30초) 샘플이 포함된 경우에 가장 잘 작동합니다.
    • +
    +

    대부분의 시스템에서는 실시간으로 충분히 빠르게 실행하기 위해 GPU 지원이 필요하며, 그렇지 않으면 끊김 현상이 발생할 것입니다.

    +

    CUDA 설치

    +

    이 단계들은 더 나은 성능을 요구하고 호환 가능한 NVIDIA GPU를 가진 분들에게 권장됩니다.

    +
    +

    참고: NVIDIA GPU가 CUDA를 지원하는지 확인하려면 공식 CUDA GPU 목록을 방문하세요.

    +
    +

    CUDA를 통해 지원되는 토치를 사용하려면 다음 단계를 따르세요:

    +
    +

    참고: 최신 pytorch 설치는 여기 (확인되지 않음)에서 Toolkit (및 아마도 cuDNN) 설치가 더 이상 필요하지 않을 수 있습니다.

    +
    +
      +
    1. +

      NVIDIA CUDA 툴킷 설치: + 예를 들어, Toolkit 12.X를 설치하려면

      +
        +
      • NVIDIA CUDA 다운로드를 방문하세요.
      • +
      • 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요.
      • +
      • 소프트웨어를 다운로드하고 설치하세요.
      • +
      +

      또는 Toolkit 11.8을 설치하려면, +- NVIDIA CUDA Toolkit 아카이브를 방문하세요. +- 운영 체제, 시스템 아키텍처 및 OS 버전을 선택하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    2. +
    3. +

      NVIDIA cuDNN 설치:

      +

      예를 들어, CUDA 11.x에 cuDNN 8.7.0을 설치하려면 +- NVIDIA cuDNN 아카이브를 방문하세요. +- "Download cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x"를 클릭하세요. +- 소프트웨어를 다운로드하고 설치하세요.

      +
    4. +
    5. +

      ffmpeg 설치:

      +

      ffmpeg 웹사이트에서 운영 체제에 맞는 설치 프로그램을 다운로드할 수 있습니다.

      +

      또는 패키지 관리자를 사용하세요:

      +
        +
      • +

        우분투나 데비안에서: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        Arch Linux에서: + sudo pacman -S ffmpeg

        +
      • +
      • +

        Homebrew를 사용한 MacOS에서 (https://brew.sh/): + ```bash +brew install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **Chocolatey를 사용한 Windows에서** ([https://chocolatey.org/](https://chocolatey.org/)):
    +        ```
    +        choco install ffmpeg
    +        ```
    +
    +    - **Scoop을 사용하여 Windows에서** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```
    +        스쿱 설치 ffmpeg
    +
    +
      +
    1. +

      CUDA 지원으로 PyTorch 설치하기:

      +

      CUDA를 사용하여 GPU 지원을 활성화하려면, 특정 CUDA 버전에 따라 다음 지침을 따르세요. CUDA 기능으로 RealtimeSTT의 성능을 향상시키고자 한다면 유용합니다.

      +
        +
      • +

        CUDA 11.8의 경우:

        +

        PyTorch와 Torchaudio를 CUDA 11.8을 지원하도록 업데이트하려면 다음 명령어를 사용하세요:

        +

        ```bash +pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

        +
      • +
      +
    2. +
    +
            텍스트를 번역할 내용: ```
    +
    +    - **CUDA 12.X의 경우:**
    +
    +
    +        PyTorch와 Torchaudio를 CUDA 12.X를 지원하도록 업데이트하려면 다음을 실행하세요:
    +
    +        ```bash
    +pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
    +
    +
        텍스트를 번역할 내용: ```
    +
    +`2.3.1`을(를) 귀하의 시스템 및 요구 사항에 맞는 PyTorch 버전으로 교체하세요.
    +
    +
      +
    1. 호환성 문제를 해결하기 위한 수정: + 라이브러리 호환성 문제에 직면하면, 이 라이브러리들을 고정된 버전으로 설정해 보세요:
    2. +
    +

    텍스트를 번역할 내용: ```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/ko/usage/index.html b/zh/ko/usage/index.html new file mode 100755 index 0000000..1cc6afb --- /dev/null +++ b/zh/ko/usage/index.html @@ -0,0 +1,2148 @@ + + + + + + + + + + + + + + + + + + + + + + + 한국어 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + + + + + +
    +
    + + + + +

    사용 방법

    +

    빠른 시작

    +

    기본적인 사용 예는 다음과 같습니다:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +
    +engine = SystemEngine() # TTS 엔진을 지정
    +stream = TextToAudioStream(engine)
    +stream.feed("Hello world! How are you today?")
    +stream.play_async()
    +
    +

    텍스트 피드

    +

    개별 문자열을 입력할 수 있습니다:

    +
    stream.feed("안녕하세요, 이것은 문장입니다.")
    +
    +

    실시간 스트리밍용 제너레이터나 문자 이터레이터를 피드하는 것도 가능합니다:

    +
    def write(prompt: str):
    +    for chunk in openai.ChatCompletion.create(
    +        model="gpt-3.5-turbo",
    +        messages=[{"role": "user", "content" : prompt}],
    +        stream=True
    +    ):
    +        if (text_chunk := chunk["choices"][0]["delta"].get("content")) is not None:
    +            yield text_chunk
    +
    +text_stream = write("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +
    char_iterator = iter("Streaming this character by character.")
    +stream.feed(char_iterator)
    +
    +

    재생

    +

    비동기 재생:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    동기 재생:

    +
    stream.play()
    +
    +

    라이브러리 테스트

    +

    test 서브디렉토리에는 RealtimeTTS 라이브러리의 기능을 평가하고 이해하기 위한 스크립트가 포함되어 있습니다.

    +

    오래된 OpenAI API (<1.0.0)에 의존하는 테스트가 많기 때문에, 새로운 OpenAI API의 사용 예는 openai_1.0_test.py에서 확인할 수 있습니다.

    +
      +
    • +

      simple_test.py

      +
        +
      • 설명: 라이브러리의 가장 간단한 사용법을 보여주는 "Hello World" 스타일의 데모.
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 설명: 라이브러리의 대부분 기능을 포괄하는 종합적인 데모.
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 설명: 로컬 Coqui TTS 엔진의 테스트.
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하세요.
      • +
      • 설명: 6개의 다른 언어로 실시간 번역.
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 의존성: pip install openai realtimestt를 실행하십시오.
      • +
      • 설명: 시작 단어로 시작되는 음성 기반의 OpenAI API 인터페이스.
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 의존성: pip install openai keyboard realtimestt를 실행하십시오.
      • +
      • 설명: TTS 엔진과 목소리를 선택하여 AI 대화를 시작하세요.
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 의존성: pip install openai realtimestt 실행.
      • +
      • 説明: 20行のコードで作成されたシンプルなトークボット。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: ラージランゲージモデル(LLM)との統合の簡単なデモ。
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依存関係: pip install openai
      • +
      • 説明: コールバックを紹介し、実環境での待機時間をチェック可能。
      • +
      +
    • +
    +

    一時停止、再開 & 停止

    +

    オーディオストリームを一時停止:

    +
    stream.pause()
    +
    +

    一時停止したストリームを再開:

    +
    stream.resume()
    +
    +

    ストリームをすぐに停止:

    +
    stream.stop()
    +
    +

    必要要件の説明

    +
      +
    • Pythonバージョン:
    • +
    • 必須: Python >= 3.9, < 3.13
    • +
    • +

      理由: ライブラリはCoquiのGitHubライブラリ「TTS」に依存しており、Pythonのこのバージョン範囲が必要です。

      +
    • +
    • +

      PyAudio: 出力オーディオストリームを作成するため

      +
    • +
    • +

      stream2sentence: 入力されるテキストストリームを文単位に分割するため

      +
    • +
    • +

      pyttsx3: システムテキスト読み上げエンジン

      +
    • +
    • +

      pydub: オーディオチャンクの形式変換用

      +
    • +
    • +

      azure-cognitiveservices-speech: Azureテキスト読み上げエンジン

      +
    • +
    • +

      elevenlabs: Elevenlabsテキスト読み上げエンジン

      +
    • +
    • +

      coqui-TTS: 高品質なローカルニューラルTTS用CoquiのXTTSテキスト読み上げライブラリ

      +
    • +
    +

    Idiap研究所が管理するCoqui TTSのフォークに感謝。

    +
      +
    • +

      openai: OpenAIのTTS APIとのインタラクション用

      +
    • +
    • +

      gtts: Google翻訳テキスト読み上げ変換

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/usage/index.html b/zh/usage/index.html new file mode 100755 index 0000000..5e83b09 --- /dev/null +++ b/zh/usage/index.html @@ -0,0 +1,2149 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    用法

    +

    快速开始

    +

    这是一个基本的使用示例:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # 替换为你的TTS引擎 +流 = 文本转语音流(engine) +stream.feed("你好,世界!") 你今天怎么样? +stream.play_async()

    +

    供稿文本

    +

    你可以输入单个字符串:

    +
    stream.feed("你好,这是一句话。")
    +
    +

    或者你可以为实时流媒体提供生成器和字符迭代器:

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```聊天完成。创建(
    +        模型="gpt-3.5-turbo",
    +        消息=[{"角色": "用户", "内容": prompt}],
    +        流式=True
    +    ):
    +        如果 (text_chunk := chunk["choices"]上下文:[0]  
    +文本翻译:[0]["德尔塔"].get("content")) 不是 None:
    +            生成文本块
    +
    +文本流 = 写入("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +```python
    +char_iterator = iter("逐字符流式传输。")
    +stream.feed(char_iterator)
    +
    +

    播放

    +

    异步地:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同步:

    +
    stream.play()
    +
    +

    测试库

    +

    测试子目录包含一组脚本,帮助您评估和理解RealtimeTTS库的功能。

    +

    请注意,大多数测试仍然依赖于“旧”的OpenAI API(<1.0.0)。 在 openai_1.0_test.py 中演示了新 OpenAI API 的用法。

    +
      +
    • +

      simple_test.py

      +
        +
      • 描述:一个“你好,世界”风格的演示,展示了该库的最简单用法。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 描述:一个全面的演示,展示了该库提供的大多数功能。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 描述:本地coqui TTS引擎的测试。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述:实时翻译成六种不同的语言。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 唤醒词激活并通过语音界面访问OpenAI API。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依赖项: 运行 pip install openai keyboard realtimestt
      • +
      • 描述: 在开始AI对话之前选择TTS引擎和声音。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 一个20行代码的基本对话机器人。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 如何将库与大型语言模型集成的简单演示 (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 展示回调并让您在实际应用环境中检查延迟时间。
      • +
      +
    • +
    +

    暂停、继续和停止

    +

    暂停音频流:

    +
    stream.pause()
    +
    +

    恢复暂停的直播:

    +
    stream.resume()
    +
    +

    立即停止直播:

    +
    stream.stop()
    +
    +

    需求说明

    +
      +
    • Python 版本
    • +
    • 要求:Python >= 3.9,< 3.13
    • +
    • +

      原因: 该库依赖于来自coqui的GitHub库“TTS”,该库需要在此范围内的Python版本。

      +
    • +
    • +

      PyAudio:用于创建输出音频流

      +
    • +
    • +

      stream2sentence:将输入的文本流拆分成句子

      +
    • +
    • +

      pyttsx3:系统文本转语音引擎

      +
    • +
    • +

      pydub:用于转换音频块格式

      +
    • +
    • +

      azure-cognitiveservices-speech:Azure 语音合成引擎

      +
    • +
    • +

      elevenlabs:Elevenlabs 文字转语音转换引擎

      +
    • +
    • +

      coqui-TTS:Coqui的XTTS文本转语音库,用于高质量本地神经TTS

      +
    • +
    +

    Idiap研究所致敬,感谢他们维护了coqui tts的一个分支

    +
      +
    • +

      openai:与OpenAI的TTS API互动

      +
    • +
    • +

      gtts:谷歌翻译文本转语音转换

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/zh/api/index.html b/zh/zh/api/index.html new file mode 100755 index 0000000..f6bbfa2 --- /dev/null +++ b/zh/zh/api/index.html @@ -0,0 +1,2791 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    中文

    + +

    配置

    +

    TextToAudioStream 的初始化参数

    +

    初始化 TextToAudioStream 类时,有多种选项可自定义其行为。以下是可用参数:

    +

    engine (BaseEngine)

    +
      +
    • 类型**: 基础引擎
    • +
    • 必需**: 是
    • +
    • 描述***: 负责文本到音频合成的底层引擎。您必须提供一个 BaseEngine 或其子类的实例才能启用音频合成。
    • +
    +

    on_text_stream_start(可调用)

    +
      +
    • 类型**: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 这个可选的回调函数会在文本流开始时触发。可用于任何设置或日志记录。
    • +
    +

    on_text_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当文本流结束时,这个可选的回调函数将被激活。可用于清理任务或日志记录。
    • +
    +

    on_audio_stream_start(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流启动时,会调用这个可选的回调函数。可用于用户界面更新或事件记录。
    • +
    +

    on_audio_stream_stop(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 当音频流停止时,会调用这个可选的回调函数。是资源清理或后处理任务的理想选择。
    • +
    +

    on_character(可调用)

    +
      +
    • 类型***: 可调用函数
    • +
    • 要求**: 无
    • +
    • 描述***: 处理单个字符时调用此可选回调函数。
    • +
    +

    output_device_index (int)

    +
      +
    • 类型***: 整数
    • +
    • 要求**: 无
    • +
    • 默认**: 无
    • +
    • 描述***: 指定要使用的输出设备索引。无则使用默认设备。
    • +
    +

    tokenizer (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 无
    • +
    • 默认**: nltk
    • +
    • 描述**: 用于分句的标记符(目前支持 “nltk ”和 “stanza”)。
    • +
    +

    language (字符串)

    +
      +
    • 类型***: 字符串
    • +
    • 必须**: 否
    • +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +

    muted (bool)

    +
      +
    • 类型***: 布尔
    • +
    • 要求**: 否
    • +
    • 默认**: 假
    • +
    • 描述***: 全局静音参数。如果为 True,则不会打开 pyAudio 流。禁止通过本地扬声器播放音频(以防要合成到文件或处理音频块),并覆盖播放参数静音设置。
    • +
    +

    level (int)

    +
      +
    • 类型**: 整数
    • +
    • 必须**: 无
    • +
    • 默认**: 日志警告
    • +
    • 描述***: 设置内部日志记录器的日志记录级别。可以是 Python 内置的 logging 模块中的任意整数常量。
    • +
    +

    使用示例:

    +
    engine = YourEngine() # 用你的引擎代替
    +stream = TextToAudioStream(
    +    engine=engine、
    +    on_text_stream_start=my_text_start_func、
    +    on_text_stream_stop=my_text_stop_func、
    +    on_audio_stream_start=my_audio_start_func、
    +    on_audio_stream_stop=my_audio_stop_func、
    +    级别=logging.INFO
    +)
    +
    +

    方法

    +

    playplay_async 方法

    +

    这些方法负责执行文本到音频的合成并播放音频流。不同之处在于,play 是一个阻塞函数,而 play_async 则在单独的线程中运行,允许其他操作继续进行。

    +
    参数:
    +
    fast_sentence_fragment (bool)
    +
      +
    • 默认**: true
    • +
    • 描述***: 当设置为 “true ”时,该方法将优先考虑速度,以更快的速度生成和播放句子片段。这对延迟很重要的应用程序很有用。
    • +
    +
    fast_sentence_fragment_allsentences (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 当设置为 “true ”时,快速句子片段处理适用于所有句子,而不仅仅是第一个句子。
    • +
    +
    fast_sentence_fragment_allsentences_multiple (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 设置为 “true ”时,允许产生多个句子片段,而不是只有一个。
    • +
    +
    buffer_threshold_seconds (浮点数)
    +
      +
    • 默认值**: 0.0
    • +
    • +

      描述**: 指定缓冲阈值的时间(以秒为单位),它会影响音频播放的流畅性和连续性。

      +
    • +
    • +

      工作原理 在合成新句子之前,系统会检查缓冲区中剩余的音频资料是否多于 buffer_threshold_seconds指定的时间。如果是,系统就会从文本生成器中获取另一个句子,假设它能在缓冲区中剩余音频所提供的时间窗口内获取并合成这个新句子。这个过程可以让文本到语音引擎有更多的语境,从而更好地进行合成,增强用户体验。

      +
    • +
    +

    较高的值可确保有更多的预缓冲音频,减少播放过程中出现静音或间断的可能性。如果出现断句或停顿,请考虑增加该值。

    +
    minimum_sentence_length(int)
    +
      +
    • 默认10
    • +
    • 描述**: 设置将字符串视为句子进行合成的最小字符长度。这会影响文本块的处理和播放方式。
    • +
    +
    minimum_first_fragment_length (int)
    +
      +
    • 默认值**: 10
    • +
    • 描述**: 第一个句子片段的最小字符数。
    • +
    +
    log_synthesized_text (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述**: 启用后,记录合成为音频的文本块。有助于审计和调试。
    • +
    +
    reset_generated_text (bool)
    +
      +
    • 默认**: true
    • +
    • 描述**: 如果为 True,则在处理前重置生成的文本。
    • +
    +
    output_wavfile (str)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 如果设置为 “是”,则将音频保存到指定的 WAV 文件中。
    • +
    +
    on_sentence_synthesized(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成一个句子片段后调用的回调函数。
    • +
    +
    before_sentence_synthesized (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述***: 在合成单个句子片段之前调用的回调函数。
    • +
    +
    on_audio_chunk(可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 单个音频片段准备就绪时调用的回调函数。
    • +
    +
    tokenizer (str)
    +
      +
    • 默认**: “nltk”
    • +
    • 描述**: 用于分句的标记符。目前支持 “nltk ”和 “stanza”。
    • +
    +
    tokenize_sentences (可调用)
    +
      +
    • 默认**: 无
    • +
    • 描述**: 从输入文本中标记句子的自定义函数。如果对 nltk 和 stanza 不满意,可以提供自己的轻量级标记符。它应以字符串形式接收文本,并以字符串列表形式返回拆分后的句子。
    • +
    +
    language (str)
    +
      +
    • 默认**: en
    • +
    • 描述**: 用于分句的语言。
    • +
    +
    context_size (int)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 用于建立句子边界检测上下文的字符数。上下文越大,检测句子边界的准确性就越高。
    • +
    +
    context_size_look_overhead (整数)
    +
      +
    • 默认**: 12
    • +
    • 描述***: 检测句子边界时用于前瞻的额外上下文大小。
    • +
    +
    muted (bool)
    +
      +
    • 默认**: 假
    • +
    • 描述***: 如果为 True,则禁止通过本地扬声器播放音频。当您想合成一个文件或处理音频块而不播放它们时,此功能非常有用。
    • +
    +
    sentence_fragment_delimiters (str)
    +
      +
    • 默认**: “.?!;:,\n...)]}。-”
    • +
    • 描述**: 被视为句子分隔符的字符串。
    • +
    +
    force_first_fragment_after_words (int)
    +
      +
    • 默认值**: 15
    • +
    • 描述***: 强制产生第一个句子片段的字数。
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/zh/contributing/index.html b/zh/zh/contributing/index.html new file mode 100755 index 0000000..f84fbbe --- /dev/null +++ b/zh/zh/contributing/index.html @@ -0,0 +1,1874 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    向 RealtimeTTS 投稿

    +

    我们欢迎您为 RealtimeTTS 投稿!您可以通过以下方式为 RealtimeTTS 投稿:

    +
      +
    1. +

      报告错误: 如果您发现了错误,请在我们的 GitHub 存储库 上打开一个问题。

      +
    2. +
    3. +

      提出改进建议: 有关于新功能或改进的想法吗?我们很乐意倾听!打开问题,提出改进建议。

      +
    4. +
    5. +

      代码贡献: 想要添加新功能或修复错误?太好了!请按照以下步骤操作:

      +
    6. +
    7. 分叉版本库
    8. +
    9. 为您的功能创建一个新分支
    10. +
    11. 进行更改
    12. +
    13. +

      提交一个拉取请求,清楚地描述您的更改

      +
    14. +
    15. +

      文档: 通过修正错别字、添加示例或澄清易混淆的部分来帮助我们改进文档。

      +
    16. +
    17. +

      添加新引擎: 如果您想添加对新 TTS 引擎的支持,请先打开一个问题来讨论实现方法。

      +
    18. +
    +

    感谢您帮助改进 RealtimeTTS!

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/zh/faq/index.html b/zh/zh/faq/index.html new file mode 100755 index 0000000..70d05ff --- /dev/null +++ b/zh/zh/faq/index.html @@ -0,0 +1,1858 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    常见问题

    +

    有关 RealtimeTTS 常见问题的解答,请参阅我们的 GitHub 上的常见问题页面

    +

    该页面涵盖各种主题,包括

    +
      +
    • 不同 TTS 引擎的使用
    • +
    • 处理多语言文本
    • +
    • 性能优化
    • +
    • 常见问题的故障排除
    • +
    +

    更多详细信息,请访问以上链接。

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/zh/index.html b/zh/zh/index.html new file mode 100755 index 0000000..aa9584a --- /dev/null +++ b/zh/zh/index.html @@ -0,0 +1,1937 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    RealtimeTTS

    +

    EN | FR | ES | DE | IT | ZH | JA

    +

    易于使用、低延迟、适用于实时应用的文本到语音库

    +

    项目简介

    +

    RealtimeTTS 是专为实时应用设计的最先进的文本转语音(TTS)库。它能将文本流快速转换为高质量的听觉输出,并将延迟降到最低。

    +

    关键功能

    +
      +
    • 低延迟**:文本到语音的转换几乎瞬时完成,与 LLM 输出兼容
    • +
    • 高质量音频**:生成清晰自然的语音
    • +
    • 支持多种 TTS 引擎**:支持 OpenAI TTS、Elevenlabs、Azure Speech Services、Coqui TTS、gTTS 和 System TTS
    • +
    • 多种语言**
    • +
    • 稳定可靠**:通过后备机制确保持续运行,在出现中断时切换到替代引擎,保证性能和可靠性的一致性
    • +
    +

    有关安装说明、使用示例和 API 参考,请使用侧边栏浏览文档。

    +

    通过DeepL.com(免费版)翻译

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/zh/installation/index.html b/zh/zh/installation/index.html new file mode 100755 index 0000000..f34c84b --- /dev/null +++ b/zh/zh/installation/index.html @@ -0,0 +1,2274 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    + +
    +
    + + + +
    +
    + + + + +

    中文

    + +
    +

    注意: 不再推荐使用 pip install realtimetts 进行基本安装,而应使用 pip install realtimetts[all]

    +
    +

    RealtimeTTS 库为您的用例提供了各种依赖项的安装选项。以下是根据需要安装 RealtimeTTS 的不同方法:

    +

    完整安装

    +

    安装支持所有 TTS 引擎的 RealtimeTTS:

    +
    pip install -U realtimetts[all]
    +
    +

    定制安装

    +

    RealtimeTTS 允许使用最少的库安装进行自定义安装。以下是可用选项: +- 全部: 完全安装所有支持的引擎。 +- *系统: 包括特定系统的 TTS 功能(如 pyttsx3)。 +- azure: 添加 Azure 认知服务语音支持。 +- elevenlabs: 包括与 ElevenLabs API 的集成。 +- openai: 用于 OpenAI 语音服务。 +- gtts: 支持谷歌文本到语音。 +- coqui: 安装 Coqui TTS 引擎。 +- minimal: 只安装基本要求,不安装引擎(只有当你想开发自己的引擎时才需要)。

    +

    如果您只想为本地神经元 Coqui TTS 安装 RealtimeTTS,则应使用

    +
    pip install realtimetts[coqui]
    +
    +

    例如,如果您想安装只支持 Azure 认知服务语音、ElevenLabs 和 OpenAI 的 RealtimeTTS:

    +
    pip install realtimetts[azure,elevenlabs,openai].
    +
    +

    虚拟环境安装

    +

    如果想在虚拟环境中进行完整安装,请按照以下步骤操作:

    +
    python -m venv env_realtimetts
    +env_realtimetts\Scripts\activate.bat
    +python.exe -m pip install --upgrade pip
    +pip install -U realtimetts[all]
    +
    +

    有关 CUDA 安装 的更多信息。

    +

    引擎要求

    +

    RealtimeTTS 支持的不同引擎有其独特的要求。请根据所选引擎确保满足这些要求。

    +

    系统引擎

    +

    系统引擎 "开箱即用,具有系统内置的 TTS 功能。无需额外设置。

    +

    GTTS 引擎

    +

    GTTSEngine "开箱即用,使用谷歌翻译的文本到语音 API。无需额外设置。

    +

    OpenAIEngine

    +

    要使用 OpenAIEngine: +- 设置环境变量 OPENAI_API_KEY +- 安装 ffmpeg(参见 CUDA 安装 第 3 点)

    +

    AzureEngine

    +

    要使用 “AzureEngine”,你需要 +- Microsoft Azure 文本到语音 API 密钥(通过 AzureEngine 构造函数参数 “speech_key ”或环境变量 AZURE_SPEECH_KEY 提供) +- Microsoft Azure 服务区域。

    +

    在初始化 AzureEngine 时,确保这些凭据可用并配置正确。

    +

    ElevenlabsEngine

    +

    使用 ElevenlabsEngine 时需要 +- Elevenlabs API 密钥(通过 ElevenlabsEngine 构造函数参数 “api_key ”或环境变量 ELEVENLABS_API_KEY 提供) +- 系统中已安装 mpv(用于流式传输 mpeg 音频,Elevenlabs 仅提供 mpeg)。

    +

    🔹 安装 mpv: + - macOS**: + brew install mpv

    +
      +
    • Linux和Windows: 请访问 mpv.io 获取安装说明。
    • +
    +

    CoquiEngine

    +

    通过语音克隆提供高质量的本地神经 TTS。

    +

    首先下载一个神经 TTS 模型。在大多数情况下,使用 GPU 合成的实时速度足够快。需要大约 4-5GB VRAM。

    +
      +
    • 要克隆语音,请将包含源语音的波形文件的文件名作为 “语音 ”参数提交给 CoquiEngine 构造函数
    • +
    • 语音克隆最好使用 22050 Hz 单声道 16 位 WAV 文件,其中包含一个短(约 5-30 秒)样本
    • +
    +

    在大多数系统上,需要 GPU 的支持才能以足够快的速度实时运行,否则会出现卡顿现象。

    +

    CUDA 安装

    +

    这些步骤适用于那些需要更好性能并且拥有兼容的NVIDIA GPU的人。

    +
    +

    注意要检查您的NVIDIA GPU是否支持CUDA,请访问官方CUDA GPU列表

    +
    +

    要使用支持CUDA的torch,请按照以下步骤操作:

    +
    +

    注意较新的 PyTorch 安装 可能(未经验证)不再需要安装 Toolkit(可能也不需要安装 cuDNN)。

    +
    +
      +
    1. +

      安装 NVIDIA CUDA Toolkit: + 例如,要安装 Toolkit 12.X,请

      +
        +
      • 访问 NVIDIA CUDA 下载
      • +
      • 选择你的操作系统、系统架构和操作系统版本。
      • +
      • 下载并安装软件。
      • +
      +

      或者要安装 Toolkit 11.8,请 +- 访问 NVIDIA CUDA Toolkit Archive。 +- 选择您的操作系统、系统架构和操作系统版本。 +- 下载并安装软件。

      +
    2. +
    3. +

      安装 NVIDIA cuDNN

      +

      例如,要为CUDA 11.x安装cuDNN 8.7.0,请 +- 访问NVIDIA cuDNN归档。 +- 点击“下载 cuDNN v8.7.0(2022年11月28日),适用于 CUDA 11.x”。 +- 下载并安装软件。

      +
    4. +
    5. +

      安装 ffmpeg

      +

      您可以从 ffmpeg 网站 下载适用于您操作系统的安装程序。

      +

      或者使用包管理器:

      +
        +
      • +

        在 Ubuntu 或 Debian 上: + sudo apt update && sudo apt install ffmpeg

        +
      • +
      • +

        在 Arch Linux 上: + sudo pacman -S ffmpeg

        +
      • +
      • +

        在使用 Homebrew 的 MacOS 上 (https://brew.sh/): + brew install ffmpeg

        +
      • +
      • +

        在Windows上使用Chocolatey (https://chocolatey.org/): + ``` + choco install ffmpeg

        +
      • +
      +
    6. +
    +
    
    +    - **在Windows上使用Scoop** ([https://scoop.sh/](https://scoop.sh/)):
    +        ```plaintext
    +        scoop install ffmpeg
    +        ```
    +
    +4. **安装带有CUDA支持的PyTorch**:
    +
    +    要升级您的PyTorch安装以启用CUDA的GPU支持,请根据您的具体CUDA版本遵循以下说明。 如果您希望通过CUDA功能提升RealtimeSTT的性能,这将非常有用。
    +
    +    - **对于CUDA 11.8:**
    +
    +        要更新 PyTorch 和 Torchaudio 以支持 CUDA 11.8,请使用以下命令:
    +
    +        ```
    +        pip install torch==2.3.1+cu118 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
    +
    +
        文本待翻译:```
    +
    +- **对于CUDA 12.X:**
    +
    +
    +    要更新 PyTorch 和 Torchaudio 以支持 CUDA 12.X,请执行以下操作:
    +
    +    ```plaintext
    +
    +

    pip install torch==2.3.1+cu121 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121 +文本待翻译:

    +
    将 `2.3.1` 替换为适合您的系统和需求的 PyTorch 版本。
    +
    +
      +
    1. 修复以解决兼容性问题: + 如果你遇到库兼容性问题,尝试将这些库设置为固定版本:
    2. +
    +

    文本翻译:```

    +
    pip install networkx==2.8.8
    +
    +pip install typing_extensions==4.8.0
    +
    +pip install fsspec==2023.6.0
    +
    +pip install imageio==2.31.6
    +
    +pip install networkx==2.8.8
    +
    +pip install numpy==1.24.3
    +
    +pip install requests==2.31.0
    +
    +

    ```

    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file diff --git a/zh/zh/usage/index.html b/zh/zh/usage/index.html new file mode 100755 index 0000000..89db8f0 --- /dev/null +++ b/zh/zh/usage/index.html @@ -0,0 +1,2149 @@ + + + + + + + + + + + + + + + + + + + + + + + 中文 - RealtimeTTS Documentation + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
    + + + + 跳转至 + + +
    +
    + +
    + + + + +
    + + +
    + +
    + + + + + + + + + +
    +
    + + + +
    +
    +
    + + + + + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    +
    + + + +
    +
    + + + + +

    用法

    +

    快速开始

    +

    这是一个基本的使用示例:

    +
    from RealtimeTTS import TextToAudioStream, SystemEngine, AzureEngine, ElevenlabsEngine
    +
    +

    engine = SystemEngine() # 替换为你的TTS引擎 +流 = 文本转语音流(engine) +stream.feed("你好,世界!") 你今天怎么样? +stream.play_async()

    +

    供稿文本

    +

    你可以输入单个字符串:

    +
    stream.feed("你好,这是一句话。")
    +
    +

    或者你可以为实时流媒体提供生成器和字符迭代器:

    +
    def write(prompt: str):
    +    for chunk in openai.
    +```聊天完成。创建(
    +        模型="gpt-3.5-turbo",
    +        消息=[{"角色": "用户", "内容": prompt}],
    +        流式=True
    +    ):
    +        如果 (text_chunk := chunk["choices"]上下文:[0]  
    +文本翻译:[0]["德尔塔"].get("content")) 不是 None:
    +            生成文本块
    +
    +文本流 = 写入("A three-sentence relaxing speech.")
    +
    +stream.feed(text_stream)
    +
    +```python
    +char_iterator = iter("逐字符流式传输。")
    +stream.feed(char_iterator)
    +
    +

    播放

    +

    异步地:

    +
    stream.play_async()
    +while stream.is_playing():
    +    time.sleep(0.1)
    +
    +

    同步:

    +
    stream.play()
    +
    +

    测试库

    +

    测试子目录包含一组脚本,帮助您评估和理解RealtimeTTS库的功能。

    +

    请注意,大多数测试仍然依赖于“旧”的OpenAI API(<1.0.0)。 在 openai_1.0_test.py 中演示了新 OpenAI API 的用法。

    +
      +
    • +

      simple_test.py

      +
        +
      • 描述:一个“你好,世界”风格的演示,展示了该库的最简单用法。
      • +
      +
    • +
    • +

      complex_test.py

      +
        +
      • 描述:一个全面的演示,展示了该库提供的大多数功能。
      • +
      +
    • +
    • +

      coqui_test.py

      +
        +
      • 描述:本地coqui TTS引擎的测试。
      • +
      +
    • +
    • +

      translator.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述:实时翻译成六种不同的语言。
      • +
      +
    • +
    • +

      openai_voice_interface.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 唤醒词激活并通过语音界面访问OpenAI API。
      • +
      +
    • +
    • +

      advanced_talk.py

      +
        +
      • 依赖项: 运行 pip install openai keyboard realtimestt
      • +
      • 描述: 在开始AI对话之前选择TTS引擎和声音。
      • +
      +
    • +
    • +

      minimalistic_talkbot.py

      +
        +
      • 依赖项: 运行 pip install openai realtimestt
      • +
      • 描述: 一个20行代码的基本对话机器人。
      • +
      +
    • +
    • +

      simple_llm_test.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 如何将库与大型语言模型集成的简单演示 (LLMs).
      • +
      +
    • +
    • +

      test_callbacks.py

      +
        +
      • 依赖项: 运行 pip install openai
      • +
      • 描述: 展示回调并让您在实际应用环境中检查延迟时间。
      • +
      +
    • +
    +

    暂停、继续和停止

    +

    暂停音频流:

    +
    stream.pause()
    +
    +

    恢复暂停的直播:

    +
    stream.resume()
    +
    +

    立即停止直播:

    +
    stream.stop()
    +
    +

    需求说明

    +
      +
    • Python 版本
    • +
    • 要求:Python >= 3.9,< 3.13
    • +
    • +

      原因: 该库依赖于来自coqui的GitHub库“TTS”,该库需要在此范围内的Python版本。

      +
    • +
    • +

      PyAudio:用于创建输出音频流

      +
    • +
    • +

      stream2sentence:将输入的文本流拆分成句子

      +
    • +
    • +

      pyttsx3:系统文本转语音引擎

      +
    • +
    • +

      pydub:用于转换音频块格式

      +
    • +
    • +

      azure-cognitiveservices-speech:Azure 语音合成引擎

      +
    • +
    • +

      elevenlabs:Elevenlabs 文字转语音转换引擎

      +
    • +
    • +

      coqui-TTS:Coqui的XTTS文本转语音库,用于高质量本地神经TTS

      +
    • +
    +

    Idiap研究所致敬,感谢他们维护了coqui tts的一个分支

    +
      +
    • +

      openai:与OpenAI的TTS API互动

      +
    • +
    • +

      gtts:谷歌翻译文本转语音转换

      +
    • +
    + + + + + + + + + + + + + +
    +
    + + + +
    + + + +
    + + + +
    +
    +
    +
    + + + + + + + + + + \ No newline at end of file