Google
Web dns.bdat.net

Re: [PHP-ES] ¿Como lo harian?

Write haof XML files: Amador Cubino ( acubino3(EN)necostek.com)
Fecha: jue 03 mar 2005 - 13:14:19 CET


Hola.

No se a que te refieres con usar Curl.

Ya uso Curl para enviar y solicitar los datos de las paginas Web, pero
no se como podria conseguir una mayor velocidad o multithread desde un
mismo proceso.

No he visto nunca nada en la documentacion que diga lo que tu me sugieres.

Podrias indicarme un poquito que es eso que debo mirar?

Gracias

Fernando Gutierrez wrote:

>supongo que con la libreria de curl podrias eliminar los systems....
>
>http://es2.php.net/manual/en/ref.curl.php
>
>
>
>On Thu, 3 Mar 2005 01:02:52 +0100, Manuel Rodriguez Morales
>< manuthema(EN)eresmas.net> wrote:
>
>
>>A ver, tu propones el lanzar a la shell varios procesos. Entiendo que tu
>>idea es, tienes un php, y desde ahy llamas a varias shell lanzando en cada
>>una una url. Si es esto lo que tu planteas, yo te propongo lo siguiente:
>>Desde el php, prueba a lanzar una unica shell, y desde esa shell, lanzas
>>varios php, shell o lo que quieras con una url cada uno.
>>
>>----- Original Message -----
>>From: "Amador Cubino" < acubino3(EN)necostek.com>
>>To: < php-es(EN)lists.php.net>
>>Sent: Wednesday, March 02, 2005 10:21 PM
>>Subject: [PHP-ES] ¿Como lo harian?
>>
>>
>>
>>>Hola.
>>>
>>>Planteo una duda de concepto, mas de que de programacion.
>>>
>>>Bien necesito un Script que descargue digamos 100 paginas Web y luego las
>>>analize.
>>>
>>>Por tanto haria mas o menos lo siguiente
>>>- Peticion url1.com
>>>- Tarda 50 ms en devolver la URL
>>>- Analizamos en 1 ms la URL
>>>- Repetimos el proceso 100 veces
>>>
>>>
>>>Total que para analizar las 100 paginas Web tardamos unos cuantos minutos,
>>>mientras se produce una carga en el servidor muy baja.
>>>
>>>
>>>Lo que yo quiero es hacer las peticiones a la vez de la carga de paginas
>>>Web o algo, pero no se como. Lo unico que se hacer es un lanzador que
>>>lance varios procesos a la shell por medio de system() y desencadene las
>>>llamadas a cada URL. Luego se guarda en mysql el resultado y se analiza
>>>posteriormente desde el lanzador.
>>>
>>>El problema de esto es que usar la funcion system() ya gasta una gran
>>>cantidad de CPU ademas de gastar un poquillo mas al tener que grabar en
>>>MySQL pues tambien consume.
>>>
>>>
>>>Como lo hariais vosotros para ahorrar recursos y conseguir una gran
>>>velocidad?
>>>
>>>
>>>Gracias
>>>
>>>--
>>>PHP Spanish Localization Talk Mailing List (http://www.php.net/)
>>>To unsubscribe, visit: http://www.php.net/unsub.php
>>>
>>>
>>>
>>--
>>PHP Spanish Localization Talk Mailing List (http://www.php.net/)
>>To unsubscribe, visit: http://www.php.net/unsub.php
>>
>>
>>
>>
>
>
>
>

-- 
PHP Spanish Localization Talk Mailing List (http://www.php.net/)
To unsubscribe, visit: http://www.php.net/unsub.php


Este archivo fue generado por hypermail 2.1.7 : sáb 19 mar 2005 - 01:01:24 CET