Skip to content

Commit 1391afb

Browse files
Traducido archivo library/urllib.robotparser (#1197)
1 parent b68f4e4 commit 1391afb

File tree

2 files changed

+40
-9
lines changed

2 files changed

+40
-9
lines changed

TRANSLATORS

+1
Original file line numberDiff line numberDiff line change
@@ -126,6 +126,7 @@ Ginés Salar Ibáñez (@Ibnmardanis24)
126126
Ana (@popiula)
127127
David Silva (@dvidsilva)
128128
Ricardo Rodríguez (@ricrogz)
129+
(@0-Arngerdur-1)
129130
Melissa Escobar Gutiérrez (@MelissaEscobar)
130131
Enrique Zárate (@enrique-zarate)
131132
Jaume Montané (@jaumemy)

library/urllib.robotparser.po

+39-9
Original file line numberDiff line numberDiff line change
@@ -6,27 +6,29 @@
66
# Check https://github.com/python/python-docs-es/blob/3.8/TRANSLATORS to
77
# get the list of volunteers
88
#
9-
#, fuzzy
109
msgid ""
1110
msgstr ""
1211
"Project-Id-Version: Python 3.8\n"
1312
"Report-Msgid-Bugs-To: \n"
1413
"POT-Creation-Date: 2020-05-05 12:54+0200\n"
15-
"PO-Revision-Date: YEAR-MO-DA HO:MI+ZONE\n"
16-
"Last-Translator: FULL NAME <EMAIL@ADDRESS>\n"
14+
"PO-Revision-Date: 2021-01-08 15:24-0600\n"
1715
"Language-Team: python-doc-es\n"
1816
"MIME-Version: 1.0\n"
19-
"Content-Type: text/plain; charset=utf-8\n"
17+
"Content-Type: text/plain; charset=UTF-8\n"
2018
"Content-Transfer-Encoding: 8bit\n"
2119
"Generated-By: Babel 2.8.0\n"
20+
"Plural-Forms: nplurals=2; plural=(n != 1);\n"
21+
"Last-Translator: \n"
22+
"Language: es\n"
23+
"X-Generator: Poedit 2.4.1\n"
2224

2325
#: ../Doc/library/urllib.robotparser.rst:2
2426
msgid ":mod:`urllib.robotparser` --- Parser for robots.txt"
25-
msgstr ""
27+
msgstr ":mod:`urllib.robotparser` --- Analizador para robots.txt"
2628

2729
#: ../Doc/library/urllib.robotparser.rst:10
2830
msgid "**Source code:** :source:`Lib/urllib/robotparser.py`"
29-
msgstr ""
31+
msgstr "**Código fuente:** :source:`Lib/urllib/robotparser.py`"
3032

3133
#: ../Doc/library/urllib.robotparser.rst:20
3234
msgid ""
@@ -36,42 +38,56 @@ msgid ""
3638
"on the structure of :file:`robots.txt` files, see http://www.robotstxt.org/"
3739
"orig.html."
3840
msgstr ""
41+
"Este módulo proporciona una sola clase, :class:`RobotFileParser`, la cual "
42+
"responde preguntas acerca de si un agente de usuario en particular puede o "
43+
"no obtener una URL en el sitio Web que publico el archivo :file:`robots."
44+
"txt`. Para más detalles sobre la estructura del archivo :file:`robots.txt`, "
45+
"consulte http://www.robotstxt.org/orig.html."
3946

4047
#: ../Doc/library/urllib.robotparser.rst:28
4148
msgid ""
4249
"This class provides methods to read, parse and answer questions about the :"
4350
"file:`robots.txt` file at *url*."
4451
msgstr ""
52+
"Esta clase proporciona métodos para leer, analizar y responder preguntas "
53+
"acerca de :file:`robots.txt`"
4554

4655
#: ../Doc/library/urllib.robotparser.rst:33
4756
msgid "Sets the URL referring to a :file:`robots.txt` file."
48-
msgstr ""
57+
msgstr "Establece la URL que hace referencia a un archivo :file:`robots.txt`."
4958

5059
#: ../Doc/library/urllib.robotparser.rst:37
5160
msgid "Reads the :file:`robots.txt` URL and feeds it to the parser."
52-
msgstr ""
61+
msgstr "Lee la URL :file:`robots.txt` y la envía al analizador."
5362

5463
#: ../Doc/library/urllib.robotparser.rst:41
5564
msgid "Parses the lines argument."
56-
msgstr ""
65+
msgstr "Analiza el argumento *lines*."
5766

5867
#: ../Doc/library/urllib.robotparser.rst:45
5968
msgid ""
6069
"Returns ``True`` if the *useragent* is allowed to fetch the *url* according "
6170
"to the rules contained in the parsed :file:`robots.txt` file."
6271
msgstr ""
72+
"Retorna ``True`` si el *useragent* tiene permiso para buscar la *url* de "
73+
"acuerdo con las reglas contenidas en el archivo :file:`robots.txt` analizado."
6374

6475
#: ../Doc/library/urllib.robotparser.rst:51
6576
msgid ""
6677
"Returns the time the ``robots.txt`` file was last fetched. This is useful "
6778
"for long-running web spiders that need to check for new ``robots.txt`` files "
6879
"periodically."
6980
msgstr ""
81+
"Retorna la hora en que se recuperó por última vez el archivo ``robots.txt``. "
82+
"Esto es útil para arañas web de larga duración que necesitan buscar nuevos "
83+
"archivos ``robots.txt`` periódicamente."
7084

7185
#: ../Doc/library/urllib.robotparser.rst:57
7286
msgid ""
7387
"Sets the time the ``robots.txt`` file was last fetched to the current time."
7488
msgstr ""
89+
"Establece la hora a la que se recuperó por última vez el archivo ``robots."
90+
"txt`` hasta la hora actual."
7591

7692
#: ../Doc/library/urllib.robotparser.rst:62
7793
msgid ""
@@ -80,6 +96,10 @@ msgid ""
8096
"apply to the *useragent* specified or the ``robots.txt`` entry for this "
8197
"parameter has invalid syntax, return ``None``."
8298
msgstr ""
99+
"Retorna el valor del parámetro ``Crawl-delay`` de ``robots.txt`` para el "
100+
"*useragent* en cuestión. Si no existe tal parámetro o no se aplica al "
101+
"*useragent* especificado o la entrada ``robots.txt`` para este parámetro "
102+
"tiene una sintaxis no válida, devuelve ``None``."
83103

84104
#: ../Doc/library/urllib.robotparser.rst:71
85105
msgid ""
@@ -88,16 +108,26 @@ msgid ""
88108
"such parameter or it doesn't apply to the *useragent* specified or the "
89109
"``robots.txt`` entry for this parameter has invalid syntax, return ``None``."
90110
msgstr ""
111+
"Retorna el contenido del parámetro ``Request-rate`` de ``robots.txt`` como "
112+
"una :term:`tupla nombrada` ``RequestRate(requests, seconds)``. Si no existe "
113+
"tal parámetro o no se aplica al *useragent* especificado o la entrada "
114+
"``robots.txt`` para este parámetro tiene una sintaxis no válida, devuelve "
115+
"``None``."
91116

92117
#: ../Doc/library/urllib.robotparser.rst:81
93118
msgid ""
94119
"Returns the contents of the ``Sitemap`` parameter from ``robots.txt`` in the "
95120
"form of a :func:`list`. If there is no such parameter or the ``robots.txt`` "
96121
"entry for this parameter has invalid syntax, return ``None``."
97122
msgstr ""
123+
"Retorna el contenido del parámetro ``Sitemap`` de ``robots.txt`` en forma "
124+
"de :func:`list`. Si no existe tal parámetro o la entrada ``robots.txt`` para "
125+
"este parámetro tiene una sintaxis no válida, devuelve ``None``."
98126

99127
#: ../Doc/library/urllib.robotparser.rst:89
100128
msgid ""
101129
"The following example demonstrates basic use of the :class:`RobotFileParser` "
102130
"class::"
103131
msgstr ""
132+
"El siguiente ejemplo demuestra el uso básico de la clase :class:"
133+
"`RobotFileParser`:"

0 commit comments

Comments
 (0)