6
6
# Check https://github.com/python/python-docs-es/blob/3.8/TRANSLATORS to
7
7
# get the list of volunteers
8
8
#
9
- #, fuzzy
10
9
msgid ""
11
10
msgstr ""
12
11
"Project-Id-Version : Python 3.8\n "
13
12
"Report-Msgid-Bugs-To : \n "
14
13
"POT-Creation-Date : 2020-05-05 12:54+0200\n "
15
- "PO-Revision-Date : YEAR-MO-DA HO:MI+ZONE\n "
16
- "Last-Translator : FULL NAME <EMAIL@ADDRESS>\n "
14
+ "PO-Revision-Date : 2021-01-08 15:24-0600\n "
17
15
"Language-Team : python-doc-es\n "
18
16
"MIME-Version : 1.0\n "
19
- "Content-Type : text/plain; charset=utf -8\n "
17
+ "Content-Type : text/plain; charset=UTF -8\n "
20
18
"Content-Transfer-Encoding : 8bit\n "
21
19
"Generated-By : Babel 2.8.0\n "
20
+ "Plural-Forms : nplurals=2; plural=(n != 1);\n "
21
+ "Last-Translator : \n "
22
+ "Language : es\n "
23
+ "X-Generator : Poedit 2.4.1\n "
22
24
23
25
#: ../Doc/library/urllib.robotparser.rst:2
24
26
msgid ":mod:`urllib.robotparser` --- Parser for robots.txt"
25
- msgstr ""
27
+ msgstr ":mod:`urllib.robotparser` --- Analizador para robots.txt "
26
28
27
29
#: ../Doc/library/urllib.robotparser.rst:10
28
30
msgid "**Source code:** :source:`Lib/urllib/robotparser.py`"
29
- msgstr ""
31
+ msgstr "**Código fuente:** :source:`Lib/urllib/robotparser.py` "
30
32
31
33
#: ../Doc/library/urllib.robotparser.rst:20
32
34
msgid ""
@@ -36,42 +38,56 @@ msgid ""
36
38
"on the structure of :file:`robots.txt` files, see http://www.robotstxt.org/"
37
39
"orig.html."
38
40
msgstr ""
41
+ "Este módulo proporciona una sola clase, :class:`RobotFileParser`, la cual "
42
+ "responde preguntas acerca de si un agente de usuario en particular puede o "
43
+ "no obtener una URL en el sitio Web que publico el archivo :file:`robots."
44
+ "txt`. Para más detalles sobre la estructura del archivo :file:`robots.txt`, "
45
+ "consulte http://www.robotstxt.org/orig.html."
39
46
40
47
#: ../Doc/library/urllib.robotparser.rst:28
41
48
msgid ""
42
49
"This class provides methods to read, parse and answer questions about the :"
43
50
"file:`robots.txt` file at *url*."
44
51
msgstr ""
52
+ "Esta clase proporciona métodos para leer, analizar y responder preguntas "
53
+ "acerca de :file:`robots.txt`"
45
54
46
55
#: ../Doc/library/urllib.robotparser.rst:33
47
56
msgid "Sets the URL referring to a :file:`robots.txt` file."
48
- msgstr ""
57
+ msgstr "Establece la URL que hace referencia a un archivo :file:`robots.txt`. "
49
58
50
59
#: ../Doc/library/urllib.robotparser.rst:37
51
60
msgid "Reads the :file:`robots.txt` URL and feeds it to the parser."
52
- msgstr ""
61
+ msgstr "Lee la URL :file:`robots.txt` y la envía al analizador. "
53
62
54
63
#: ../Doc/library/urllib.robotparser.rst:41
55
64
msgid "Parses the lines argument."
56
- msgstr ""
65
+ msgstr "Analiza el argumento *lines*. "
57
66
58
67
#: ../Doc/library/urllib.robotparser.rst:45
59
68
msgid ""
60
69
"Returns ``True`` if the *useragent* is allowed to fetch the *url* according "
61
70
"to the rules contained in the parsed :file:`robots.txt` file."
62
71
msgstr ""
72
+ "Retorna ``True`` si el *useragent* tiene permiso para buscar la *url* de "
73
+ "acuerdo con las reglas contenidas en el archivo :file:`robots.txt` analizado."
63
74
64
75
#: ../Doc/library/urllib.robotparser.rst:51
65
76
msgid ""
66
77
"Returns the time the ``robots.txt`` file was last fetched. This is useful "
67
78
"for long-running web spiders that need to check for new ``robots.txt`` files "
68
79
"periodically."
69
80
msgstr ""
81
+ "Retorna la hora en que se recuperó por última vez el archivo ``robots.txt``. "
82
+ "Esto es útil para arañas web de larga duración que necesitan buscar nuevos "
83
+ "archivos ``robots.txt`` periódicamente."
70
84
71
85
#: ../Doc/library/urllib.robotparser.rst:57
72
86
msgid ""
73
87
"Sets the time the ``robots.txt`` file was last fetched to the current time."
74
88
msgstr ""
89
+ "Establece la hora a la que se recuperó por última vez el archivo ``robots."
90
+ "txt`` hasta la hora actual."
75
91
76
92
#: ../Doc/library/urllib.robotparser.rst:62
77
93
msgid ""
@@ -80,6 +96,10 @@ msgid ""
80
96
"apply to the *useragent* specified or the ``robots.txt`` entry for this "
81
97
"parameter has invalid syntax, return ``None``."
82
98
msgstr ""
99
+ "Retorna el valor del parámetro ``Crawl-delay`` de ``robots.txt`` para el "
100
+ "*useragent* en cuestión. Si no existe tal parámetro o no se aplica al "
101
+ "*useragent* especificado o la entrada ``robots.txt`` para este parámetro "
102
+ "tiene una sintaxis no válida, devuelve ``None``."
83
103
84
104
#: ../Doc/library/urllib.robotparser.rst:71
85
105
msgid ""
@@ -88,16 +108,26 @@ msgid ""
88
108
"such parameter or it doesn't apply to the *useragent* specified or the "
89
109
"``robots.txt`` entry for this parameter has invalid syntax, return ``None``."
90
110
msgstr ""
111
+ "Retorna el contenido del parámetro ``Request-rate`` de ``robots.txt`` como "
112
+ "una :term:`tupla nombrada` ``RequestRate(requests, seconds)``. Si no existe "
113
+ "tal parámetro o no se aplica al *useragent* especificado o la entrada "
114
+ "``robots.txt`` para este parámetro tiene una sintaxis no válida, devuelve "
115
+ "``None``."
91
116
92
117
#: ../Doc/library/urllib.robotparser.rst:81
93
118
msgid ""
94
119
"Returns the contents of the ``Sitemap`` parameter from ``robots.txt`` in the "
95
120
"form of a :func:`list`. If there is no such parameter or the ``robots.txt`` "
96
121
"entry for this parameter has invalid syntax, return ``None``."
97
122
msgstr ""
123
+ "Retorna el contenido del parámetro ``Sitemap`` de ``robots.txt`` en forma "
124
+ "de :func:`list`. Si no existe tal parámetro o la entrada ``robots.txt`` para "
125
+ "este parámetro tiene una sintaxis no válida, devuelve ``None``."
98
126
99
127
#: ../Doc/library/urllib.robotparser.rst:89
100
128
msgid ""
101
129
"The following example demonstrates basic use of the :class:`RobotFileParser` "
102
130
"class::"
103
131
msgstr ""
132
+ "El siguiente ejemplo demuestra el uso básico de la clase :class:"
133
+ "`RobotFileParser`:"
0 commit comments