Wikipedia:Bot/Autorizaciones

De Wikipedia, la enciclopedia libre
NOTA: si apruebas una solicitud no te olvides de actualizar {{Bots autorizados}}
Las votaciones se encuentran archivadas por años en las siguientes páginas

Las votaciones finalizadas de este año están almacenadas en el archivo de 2024.

Número de solicitudes actualmente en curso / Number of current requests: 2.


Solicitudes actuales[editar]

Esta postulación de bot está regulada por la política «Wikipedia:Política de bots».
Solicitud de autorización aprobada
Resultado
  • La postulación es autorizada con un 100 % de los votos a favor.

Postulación de una o varias nuevas tareas para ser realizadas por el bot estándar PeriodiBOT, ya autorizado y controlado por MarioFinale.

  • Usuario controlador: MarioFinale (disc. · 13 781 contr. · reg. · global · SUL)
  • Bot: PeriodiBOT (disc. · 243 586 contr. · reg. · global · SUL)
  • Plazo de votación (7 días): 18 de abril de 2024 — 25 de abril de 2024 a las 04:17 (UTC) —plazo expirado—
  • Idiomas del usuario controlador: español
  • Tarea: Ajuste de referencias
  • Comentarios: Durante un tiempo he estado desarrollando una función para resolver ciertos problemas comunes con las referencias en los artículos de Wikipedia.

Como funciona:

  • Cada cierta cantidad de tiempo (5 minutos, para luego ir reduciéndolo en medida de su comportamiento) el bot cargará una página aleatoria.
  • Verificará si la función no ha sido deshabilitada por algún bibliotecario en esta página, si ha sido desactivada se detendrá acá.
  • Verificará si hay referencias vacías en la página cargada, si hay las simplificará por etiquetas ref autocerradas.
  • Verificará si hay referencias duplicadas en la página cargada, si las hay las condensará utilizando "ref name".
  • Por cada referencia Web que haya detectado en la página, revisará en el historial cuando fue añadida, para luego re-crear la referencia utilizando la plantilla {{Cita web}} añadiendo la fecha de acceso y el nombre del sitio web y cargará el sitio web de la referencia.
    • Si el sitio web está caído o redirecciona a una página genérica (un 404 personalizado, por ejemplo):
      • Intentará rescatar el snapshot en Internet Archive más cercano a la fecha en la que fue añadida la referencia.
      • Si no hay snapshots en Internet Archive del sitio original, marcará la referencia como rota e irrecuperable.
    • Si el sitio web no está caído:
      • Enviará la página a Internet Archive para que haga un snapshot de esta.
      • Si la referencia no tenía un texto al interior intentará obtener el nombre del sitio desde la página web en la referencia.
      • Intentará obtener el idioma original del sitio web, si logra detectarlo lo colocara en el parámetro "idioma" de la plantilla {{Cita web}}.
  • Para algunas páginas especiales realizará cambios especiales en las referencias:
    • Para aob.oxfordjournals.org: Regenerará la referencia con el sitio web nuevo para "Annals of Botany".
    • Para www.tropicos.org: Los sinónimos y nombres de tropico redireccionan a la página "legacy", por lo que regenerará la referencia con el enlace en el sitio actualizado.
    • Para theplantlist.org: El sitio web es obsoleto y puede ser dado de baja en algún momento, en su lugar el bot utilizará "World Flora Online" un sitio web actualizado con la misma información.
    • Para web.archive.org: El bot corregirá estas referencias y las regenerará utilizando la plantilla {{Cita web}} y completando las fechas de archivo y la url del archivo.
    • Para apps.kew.org: El bot reemplazará los enlaces de KEW que sean a sinónimos ya que la función en el sitio web fue descontinuada y redirecciona a la página principal. En su lugar intentará obtener el enlace al taxon desde WikiData para en "World Flora Online" y regenerará la referencia.

La idea es, con el tiempo, ir añadiendo más casos para páginas especiales, ya que problema del "Link rot" en las referencias se está extendiendo bastante.

Algunos ejemplos de su funcionamiento: 1 2 3 4 5 6 7 8 9

Como siempre, el código del bot y la libería son libres:

Votos en contra. Votos en contra / No

Para votar añade #~~~~ en una línea nueva al final de esta lista.

Comentarios

Hola, MarioFinale, suena bien. Me preguntaba quizás si no sería mejor guardar la información de esta página en una página json. Estas solo pueden ser editadas, por defecto, por el usuario que las crea, bibliotecarios o administradores de interfaz. Así no tendrías que hacer una petición específica en el tablón de solicitudes de protección. Un saludo y muchas gracias por la aportación. Nacaru (discusión) 09:17 18 abr 2024 (UTC)[responder]

Si, es simple; Para el bot todas las páginas son iguales. Solo tendría que crearla manualmente utilizando la interfaz web, ya que por API no se pueden crear ni editar páginas JSON. ~ℳɑrio - (¿Un té?) 06:24 19 abr 2024 (UTC)[responder]
@MarioFinale, de todas formas, independientemente de si se pueden crear o no, en este caso, entiendo que lo único que tiene que hacer el BOT es leer su contenido periódicamente, para lo cual la API no debería dar problemas. La página la puedes crear manualmente. Nacaru (discusión) 12:25 20 abr 2024 (UTC)[responder]
@MarioFinale, con la API sí se puede crear un JSON como subpágina de usuario usando el parámetro contentmodel json y un título con extensión .json, pero ten en cuenta que no se puede usar para cambiar el modelo de contenido en páginas ya existentes (es decir, que una vez creada una página con un modelo no se puede cambiar con una edición de la API, pues es necesario el permiso editcontentmodel, solo disponible por bibliotecarios y editores de plantillas). -- Leoncastro (discusión) 14:21 19 abr 2024 (UTC)[responder]
Código

Por cierto, la llamada a la API en el enlace de ejemplo constaba de los parámetros:

{
	action: 'edit',
	format: 'json',
	formatversion: 2,
	title: 'Usuario:Semibot/Ejemplo.json',
	text: '{"activo":true}',
	contentmodel: 'json',
	token: ...
}

Y la respuesta:

{
    "edit": {
        "new": true,
        "result": "Success",
        "pageid": 10860788,
        "title": "Usuario:Semibot/Ejemplo.json",
        "contentmodel": "json",
        "oldrevid": 0,
        "newrevid": 159541466,
        "newtimestamp": "2024-04-19T14:19:53Z"
    }
}
  • comentario Comentario: sobre las ediciones del bot:
    • el parámetro |sitioweb= debería ser el título del sitio; según la documentación: «Es preferible evitar poner la url con el nombre del dominio (por ejemplo, allmusic.com o abc.es; mejor Allmusic y ABC [se puede wikienlazar])». Por tanto en este ejemplo debe evitarse |sitioweb=www.easycredit-bbl.de y |sitioweb=www.sportando.com. Por favor, MarioFinale, corrije el procedimiento del bot con este parámetro.
    • la anotación <small>enlace irrecuperable</small> que va al final de la referencia, se presenta después del punto final de esta, por lo que sería conveniente que dicha frase llevase un espacio de separación, mayúscula inicial y punto final. Véase la cuarta referencia corregida en este ejemplo.
    • cuando se marca como enlace roto «irrecuperable (Sitio caído y no hay snapshots en Internet Archive)», ¿el formato es compatible con InternetArchiveBot, que usa otras copias además de Internet Archive? (me consta que en ocasiones enlaza a webcitation.org). -- Leoncastro (discusión) 14:48 19 abr 2024 (UTC)[responder]

┌─────────────────────────────┘
Hola, gracias por los avisos.

  • Sobre el título del sitio, como la plantilla no lo comenta como algo absoluto me había limitado a utilizar la autoridad de la URL. Pero estoy de acuerdo que sería mejor que utilice el nombre del sitio para casos simples. En algunos otros casos más complejos (ej: subdomain.domain.tld1.tld2) tendría que seguir utilizando la autoridad de la url porque distintos subdominios podrían ser páginas web completamente diferentes, y se complica aún más la cosa con algunos subdominios efectivos como .gob.uk o com.ar.
  • Anotación corregida, gracias por el aviso, no lo había notado.
  • No tenía idea sobre la existencia de webcite. Vi la documentación y es bastante fácil de implementar así que lo estaría añadiendo como fuente alternativa a Web Archive. Igualmente siempre se podrían ir añadiendo más fuentes con el tiempo (siempre y cuando sean abiertas).

Sobre utilizar una página JSON, lo he estado revisando y honestamente veo más complicaciones que beneficios. Estoy contemplando crear una subpágina de usuario única que contenga los distintos parámetros para las otras funciones (así también podrían configurar otras cosas gente que no esté en IRC) y que el parámetro de referencias sea simplemente uno más en esta página. Para eso, una semiprotección debería ser suficiente. Saludos.~ℳɑrio - (¿Un té?) 03:28 20 abr 2024 (UTC)[responder]

En tal caso recomiendo no usar en lo absoluto el parámetro |sitioweb=. Es mejor que falte algún caso bueno que agregar algunos casos malos. La alternativa para hacerlo bien no sería viable en todos los casos, pero se podría intentar extraer de los metadatos de la cabecera del código HTML si existe la propiedad og:site_name (y del mismo modo se podrían extraer, también opcionalmente, otros datos como el autor). -- Leoncastro (discusión) 12:00 20 abr 2024 (UTC)[responder]
  • comentario Otro comentario: tal como aclara la plantilla de Cita web, en el caso de |idioma=, si la fuente está en español, no es necesario incluir ese parámetro. Lo digo por el ejemplo número 2 que enlazó Mario y para evitar futuros inconvenientes con el bot. Saludos cordiales, MadonnaFan 15:01 24 abr 2024 (UTC)[responder]
  • comentario Otro comentario: Ante todo, MarioFinale, me alegra que tengas la posibilidad de dedicarte a programar nuevas funciones que, como estas en particular, abordan tareas interesantes y a las que estábamos prestando poca o ninguna atención en nuestro proyecto. Te pregunto/comento también sobre algunos detalles:
    • En tu diff de ejemplo 9 (el último), el bot marca este enlace como roto e irrecuperable, cuando parece funcionar correctamente...
    • Lo de trabajar en páginas aleatorias cada 5 minutos me parece que es poco práctico a largo plazo, porque además habría que llevar algún tipo de control para no repetir páginas, etc. ¿No sería más eficaz hacer barridos sistemáticos de toda Wikipedia de forma periódica, siguiendo el orden que se decida? Más la posibilidad de habilitar algún interfaz para procesar artículos específicos bajo demanda...
    • Para los sitios que usen en sus URL algún tipo de patrón junto con identificadores y a los que tengamos muchos enlaces, sugiero usar una plantilla que nos facilite el mantenimiento y en especial actualizar de una sola vez todos los enlaces si algún día deciden cambiar de patrón (cosa que pasa con cierta frecuencia, lamentablemente). En realidad tendríamos que hacer una revisión sistemática de todos los sitios muy enlazados para ir creando plantillas, pero eso lo dejo para otro momento y lugar.
    • Dado que entiendo que compruebas y «capturas» todos los enlaces externos de las referencias para ver si están caídos, ¿sería viable ampliar esa comprobación y captura a los enlaces externos de la sección homónima, y marcarlos también como rotos cuando proceda? Sería útil y complementaría/respaldaría la labor de InternetArchiveBot. - José Emilio –jem– Tú dirás... 20:14 24 abr 2024 (UTC)[responder]

Esta postulación de bot está regulada por la política «Wikipedia:Política de bots».
Solicitud de autorización denegada
Resultado
  • La postulación es rechazada con un 73,68 % de los votos a favor.

Postulación de Paquibot como bot estándar controlado por -sasha-.

  • Usuario controlador: -sasha- (disc. · 22 465 contr. · reg. · global · SUL)
  • Bot: Paquibot (disc. · contr. · reg. · global · SUL)
  • Plazo de votación (14 días): 5 de abril de 2024 — 19 de abril de 2024 a las 14:18 (UTC) —plazo expirado—
  • Idiomas del usuario controlador: es
  • Tarea: Actualización del estatus en la Lista Roja de la IUCN en la {{Ficha de taxón}}
  • Comentarios: He escrito un script para realizar una actualización periódica de los parámetros de la ficha de taxón relacionados con el estado de conservación de la especie, añadiendo también referencias donde faltan o actualizándolas a la última evaluación que consta en la Lista Roja por medio de su API. La edición tipo es más o menos así.
    De momento ha realizado 88 ediciones de prueba (de un máximo 100, por la limitación que le impuse a la query a Wikidata). No puedo decir con seguridad cuántos cambios hará en su primera ejecución, ya que no editará si la referencia de la ficha coincide con la última publicación sobre la especie. En cualquier caso, este número está por debajo de 50 000 (el resultado de esta consulta de PetScan). Mi intención es correrlo aproximadamente una vez al año y probablemente realizará muchas menos ediciones en estas ejecuciones sucesivas. El código es libre y se puede consultar en GitHub. sasha 14:18 5 abr 2024 (UTC)[responder]
Votos a favor. Votos a favor / Yes

Para votar añade #~~~~ en una línea nueva al final de esta lista.

  1.  νιяυм мυη∂ι @ ℓσg  14:30 5 abr 2024 (UTC) Muy buena idea.[responder]
  2. Ruy (discusión) 14:35 5 abr 2024 (UTC)[responder]
  3. Nacaru · Discusión ✉ · 15:49 5 abr 2024 (UTC)[responder]
  4. BAJI¿qué? 16:03 5 abr 2024 (UTC)[responder]
  5. Lucho Problem? 18:04 5 abr 2024 (UTC)[responder]
  6. jrodriguez (discusión) 12:18 6 abr 2024 (UTC)[responder]
  7. --Términus (discusión) 08:22 7 abr 2024 (UTC)[responder]
  8. Stïnger  15:25 8 abr 2024 (UTC).[responder]
  9. --Luisalvaz (discusión) 04:31 9 abr 2024 (UTC) Sí, a partir de las respuestas del proponente.[responder]
  10. Ch21 (discusión) 13:27 10 abr 2024 (UTC)[responder]
  11. MiguelAlanCS >>> 19:19 10 abr 2024 (UTC)[responder]
  12. Anibal Maysonet (discusión) 22:07 11 abr 2024 (UTC)[responder]
  13. Elías (discusión) 23:35 17 abr 2024 (UTC)[responder]
  14. Maximo88 (discusión) 01:47 18 abr 2024 (UTC)[responder]
Votos en contra. Votos en contra / No

Para votar añade #~~~~ en una línea nueva al final de esta lista.

  1. En contra de realizar cientos o incluso miles de ediciones para actualizar un dato local que se encuentra reflejado en Wikidata y que se puede importar de forma automática adaptando su correspondiente ficha. Por ejemplo el estado «en peligro de extincion» (EN) de Leontopithecus rosalia figura en su entidad de Wikidata, incluso con su referencia, actualizado ya por otro bot allí. -- Leoncastro (discusión) 15:33 5 abr 2024 (UTC)[responder]
  2. Coincido con Leoncastro. Se podrían traer más datos desde Wikidata editando el módulo Lua correspondiente en lugar de agregar esos datos localmente (lo he estado trabajando en mi implementación de Ficha de taxón). --Amitie 10g (discusión) 15:09 6 abr 2024 (UTC)[responder]
  3. No es mejor dar mantenimiento en Wikidata.--Dimartz Baúl 13:26 7 abr 2024 (UTC)[responder]
  4. Juan25 (discusión) 17:14 7 abr 2024 (UTC)[responder]
  5. --88kB/s 08:00 12 abr 2024 (UTC)[responder]
Comentarios

En cuanto la observación de Leoncastro en su voto, soy consciente de que en Wikidata existe esa propiedad y es actualizada periódicamente también. Sé que se puede cambiar la ficha simplemente, pero la motivación para hacer el bot es que no se podría reflejar todo lo que se hace actualmente con la plantilla {{IUCN}}, usada como referencia para el parámetro |status_ref=. Concretamente, es imposible volcar los asesores y el año de evaluación, porque no están. sasha 15:49 5 abr 2024 (UTC)[responder]

  • comentario Comentario Creo que lo ideal para estos datos sería un mantenimiento vía Wikidata, como sugiere Leoncastro. Sin embargo, -sasha- tiene razón en que no todos estos datos son transcluíbles desde allí. Francamente, no tengo una opinión muy clara sobre lo 'vital' de esa información extra y si podría prescindir de ella (entiendo que quizás sea más relevante el año de evaluación que el asesor). Bien podría omitirse (sacrificarse) en aras de quitarnos el mantenimiento local de estos datos de la IUCN cediéndoselo a Wikidata. Bien podría mantenerse de forma local vía bot (con Paquibot). Ambas opciones creo que serían mejoras a la situación actual. Quizás le pediría su opinión a los usuarios más interesados en estos temas (Wikiproyecto:Taxonomía, Wikiproyecto:Botánica, Wikiproyecto:Artrópodos, etc etc) y que opinaran ellos sobre qué compensa más. En cualquier caso gracias por la creación del bot. Y si no hay queda muy claro qué hacer, quizás lo mejor tirar palante con el bot (total, ya tenemos a la gente frita con el Replacer, qué más da una oleada más en la lista de seguimiento). strakhov (discusión) 18:00 5 abr 2024 (UTC)[responder]
  • @-sasha-:, un par de preguntas: ¿Sabes algo de la calidad de funcionamiento de SuccuBot? ¿Ves alguna ventaja en este bot o algún conflicto que pueda producirse?  νιяυм мυη∂ι @ ℓσg  20:15 7 abr 2024 (UTC)[responder]
@Virum Mundi: Sobre SuccuBot no te puedo decir mucho, funciona bien hasta donde yo sé. La ventaja que ofrece este bot es la que explico arriba: puede rellenar todos los parámetros de la plantilla {{IUCN}}, mientras que con la información que deja SuccuBot en Wikidata habría dos que resultaría imposible (y no se me ocurren propiedades que pudiera usar como calificativos para añadirlas, pero en esto no estoy tan puesto). Ese es el motivo por el que hice un bot en lugar de ponerme a cambiar la ficha (además de aprender, la verdad). Conflictos no puede haber ninguno porque entiendo que SuccuBot también accede a la API de la Lista Roja y, además, la ficha de taxón actualmente no importa datos de conservación de especies desde Wikidata.
Yo entiendo los argumentos de quienes votan en contra, pero tampoco veo nada malo en que se usase este bot. Si en el futuro se decide pasar el control a Wikidata no supondrá ningún problema añadido. De hecho, sí que soluciona un contratiempo que requeriría pasar un bot de todas formas en muchos artículos: las referencias con nombre en la ficha. En esta edición se ve como existía una <ref name="uicn"> en la ficha que se volvía a utilizar de nuevo en el cuerpo del texto y el bot sustituye correctamente su uso. Esto habría que tenerlo en cuenta si se decide pasar el control de esos parámetros de la ficha directamente a Wikidata, porque si no se generarán errores en las referencias de cientos de páginas. sasha 23:36 7 abr 2024 (UTC)[responder]
He estado repasando algunos de los atributos, personalmente encuentro importante las actualizaciones automatizadas a partir de la bbdd de iucn (y en todos los parámetros posibles), por lo que cualquier ampliación del alcance de la información importada para mí es una mejora. Además, es más fácil para mí una comunicación a nivel "local" que a nivel de wikidata cuando hay un problema (como lo hubo en su día con el Testudo hermani), y si no hay conflictos, si SuccuBot usa la misma fuente y no se supone que vaya a haber discrepancias entre las Wikipedias, no le veo un mayor problema. Entiendo la opinión contraria, pero mientras el nuevo bot suponga una mejora al actual, y aunque tenga de repasar miles de artículos, creo que estaría bien contar con él. Un saludo.  νιяυм мυη∂ι @ ℓσg  06:56 12 abr 2024 (UTC)[responder]
@Metrónomo: Sí, en esos casos añade la referencia, como aquí. Me parece útil porque así, además, en la segunda, tercera, cuarta... ejecución puede comparar el parámetro |año= con el dato de la API de la última evaluación para saber si está actualizado. sasha 23:36 7 abr 2024 (UTC)[responder]
Gracias por responder. --Metrónomo's truth of the day: «persevera y triunfarás» 23:44 7 abr 2024 (UTC)[responder]

Solicitudes resueltas[editar]


Bot A favor En contra Resolución Tarea Enlace permanente
Strakbot 12 0 Autorizado date-link-remover.js Votación
NacaruBot 12 0 Autorizado retirar rápidamente enlaces internos a fechas de forma semiautomática a través de script mediante date-link-remover-control-panel.js Votación
Paquibot 14 5 Rechazado Actualización del estatus en la Lista Roja de la IUCN en la {{Ficha de taxón}} Votación