Notícias

Portugueses querem tornar sites ainda mais rápidos

16 Comentários

Para ajudar a tornar a WEB mais rápida, uma equipa de investigadores do Departamento de Engenharia Informática da Universidade de Coimbra (UC) está a desenvolver uma ferramenta capaz de identificar de forma automática problemas de desempenho em websites e quais as causas que lhe estão na origem.

internet

Para tal, a equipa tem vindo a monitorizar duas dezenas de páginas web, incluindo algumas das mais populares em Portugal e no estrangeiro, como por exemplo, SAPO, Record, Amazon e Facebook.

Dois computadores consultam estas páginas de minuto a minuto e medem os tempos de resposta, com vista a identificar eventuais problemas de desempenho e quais as causas que lhe estão associadas, com origem, por exemplo, no processador, disco ou memória do servidor.

Esta abordagem mostrou-se capaz de distinguir diferentes tipos de sobrecarga e os investigadores preparam-se agora para criar algoritmos inteligentes para monitorização e deteção automática de problemas, através da colocação de pequenas extensões de código na própria página web, que auxiliam o sistema de monitorização sempre que um utilizador acede ao site.

O tempo de resposta é crucial para quem tem negócios ou conteúdos online. Se a página demora a responder, as pessoas desistem da navegação, o que pode ser crítico em sites de vendas como a Amazon, por exemplo

Filipe Araújo, coordenador do estudo, e Ricardo Filipe, que tem vindo a realizar este trabalho no âmbito do seu doutoramento.

web

Por isso, o objetivo da investigação é «melhorar os tempos de resposta dos websites, através de um mecanismo de monitorização, tão pouco intrusivo quanto possível que, através de observações periódicas realizadas a partir do exterior, controle esses mesmos tempos de resposta, tal como são efetivamente sentidos pelos utilizadores comuns», sublinham os também investigadores do Centro de Informática e Sistemas da Universidade de Coimbra (CISUC).

Trata-se de uma solução que «de modo muito simples, pretende construir uma visão mais completa do desempenho dos websites, de forma a torná-los mais rápidos e interativos», concluem os investigadores.

Autor: Pedro Pinto
Partilhar:
Também pode gostar

Comentários

16

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

  1. Avatar de Jorge Carvalho
    Jorge Carvalho

    É uma idea , mas ferramentas com este tipo de monitorização existem há anos …

    Abc

  2. Avatar de Pedro H.
    Pedro H.

    Não é para isso que o Pagespeed e o Yslow servem?

    1. Avatar de José S.
      José S.

      Acrescento também o GTmetrix, penso que não é nada de novo..

    2. Avatar de jedi
      jedi

      Concordo. entre outras ferramentas. 😉

  3. Avatar de Zé Montanelas
    Zé Montanelas

    Memcached + NodeJS + HTTP 2.0 = mindblow

    Mas a serio, isto ainda são problemas nos dias que correm?
    Acho que os problemas são mais código legacy PHP a correrem funções depreciadas como o mysql_query() em versões pré-históricas do PHP e Apache, misturado com “spaghetti code” com abordagens OOP/Frameworks ultra redundantes e ineficientes

    Já estamos na era do DDR4 e SSD, não creio que 1 meros pedidos HTTP, que carregam código fonte, requests de bases de dados sejam assim tão exigentes

    1. Avatar de YaBa
      YaBa

      Agora é que tu disseste tudo!!
      Acrescenta aí à lista o facto de usarem montes de scripts alojados em CDNs diferentes, obriga a mais requests DNS, etc…

  4. Avatar de Zé Montanelas
    Zé Montanelas

    Memcached + NodeJS + HTTP 2.0 = mindblow

    Mas a serio, isto ainda são problemas nos dias que correm?
    Acho que os problemas são mais código legacy PHP a correrem funções depreciadas como o mysql_query() em versões pré-históricas do PHP e Apache, misturado com “spaghetti code” com abordagens OOP/Frameworks ultra redundantes e ineficientes

    Já estamos na era do DDR4 e SSD, não creio que 1 meros pedidos HTTP, que carregam código fonte, requests de bases de dados sejam assim tão exigentes

  5. Avatar de Mario Silva
    Mario Silva

    Querem paginas rápidas mas depois usam Apache onde consume o dobro dos recursos do que o Nginx..
    Usem Nginx + Varnish Cache + um bom e decente hosting internacional com bons peers e boa conectividade (1Gbps) e claro usem páginas que estejam programadas e optimizadas para carregamentos mais rápidos.. Também seria o ideal activar o https://developers.google.com/speed/pagespeed/module/filter-image-optimize e activar o GZIP

    Nginx + Varnish mais um website bem optimizado e bem programado, é o ponto para o sucesso..

    Com apache a historia já complica.

    1. Avatar de borderline
      borderline

      qnt é q tás a receber?lol

  6. Avatar de CC
    CC

    Estão a falar de routing ou de renderização de websites?

    1. Avatar de TorrentFreak Fan
      TorrentFreak Fan

      both

  7. Avatar de Marco
    Marco

    Esse tipo de monitorização apenas faz com que o site monitorizado suba nos rankings das audiências, nunca poderá apurar as reais razões para algum tipo de lentidão.

  8. Avatar de Manuel Azul
    Manuel Azul

    Reinventar a roda…

  9. Avatar de João
    João

    e eu aqui a pensar que estavamos a trabalhar para tornar os sites mais lentos e pesados! quem diria

  10. Avatar de pedro
    pedro

    Isto aqui é só sabichões! Então o homem esta a desenvolver este estudo no âmbito de um doutoramento, e vocês a dizer q já existem ferramentas para isso! Certamente que eles Estão a ter uma abordagem diferente senão não faria sentido, seria uma tese plagiada …. antes de comentar, é melhor acompanhar o trabalho deles, desejar-lhes boa sorte e, no fim, acompanhar os resultados, se os objectivos foram alcançados …. assim é que é!

    1. Avatar de Hugo
      Hugo

      Pois foi o que pensei…