-
-
Notifications
You must be signed in to change notification settings - Fork 409
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[Novo spider base]: BR Transparência #1155
base: main
Are you sure you want to change the base?
Conversation
start_urls = [""] | ||
br_tranparencia_entity = "" | ||
br_tranparencia_code = "" | ||
power = "executive" |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota esse atributo não está especificado na clase BaseGazetteSpider
, assim pensnado em flexibilidade não é recomendado a adição de atributos em classe-base
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Oi, @victorfernandesraton! Fico contente com as suas considerações. O que você sugere?
Eu segui por esse caminho tendo em mente o Princípio Aberto-Fechado do SOLID. Com base nesse princípio e nas experiências que já tive em outros projetos, no momento da implementação, me pareceu apropriado especializar uma classe para tratar desse layout específico. Além disso, ao explorar o código, percebi que outros arquivos também fazem essa especialização de atributos, como:
- data_collection/gazette/spiders/base/atende_layoutdois.py
- data_collection/gazette/spiders/base/sai.py
- data_collection/gazette/spiders/base/doem.py
- data_collection/gazette/spiders/base/dionet.py
A ideia de listar os parâmetros explicitamente na superclasse foi justamente para deixar claro quais dados devem ser definidos nas classes filhas. Mas estou totalmente aberto a aprender o padrão de código de vocês para contribuir de forma cada vez mais alinhada.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Pelo que vi realmente não temos outra alternativa, vou aprovar ao menos essa etapa
allowed_domains = ["www.camaraibicoara.ba.gov.br"] | ||
start_urls = ["https://www.camaraibicoara.ba.gov.br/diario.html"] | ||
start_date = date(2022, 12, 29) | ||
br_tranparencia_entity = "63147391-dcb2-4d6c-9c5a-c4483a9d8306" |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota normalmente nessas classes de RPA evitamos adicionar parâmetros que não sejam parâmetros-base quando podem ser evitados, penso que deveriamos ser capazes de fazer algum tipo de contulta ou mapeamento prévo em outro lugar para obter esses parâmetros de br_tranparencia_entity
e br_tranparencia_code
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Esses dois parâmetros, br_tranparencia_entity e br_tranparencia_code, são bem específicos para esse tipo de layout, já que são definidos dentro do JavaScript da página. Por isso, optei por deixá-los para serem definidos nas classes filhas.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Pelo que pesquisei, não há uma forma diferente de fazer a busca deste ID ao acessar o site
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Se eu puder dar um pitaco aqui, se for só uma requisição do arquivo javascript antes de começar a raspagem pra valer, acho que vale fazer uns regex e obter os dois parâmetros (se funcionar bem pra todos os municípios do raspador).
Se não, vale documentar como obter os parâmetros em forma de docstring no raspador base.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Testando aqui pra Ibicoara e pra Itaquara, realmente seria só uma requisição a mais no início. E dá pra ver que tem diferenças, mas são poucas, então pode ser bem generalizável.
Ambos os arquivos requisitados são https://<domínio>/js/content.js
mas o regex levaria em conta que podem ou não existir espaços em branco em entity =
e code =
.
Em Ibicoara:
//variaveis
var entity="691bea32-9b9f-40f8-ab18-31e079080a1a";
var code="CODE_ENT_CM204";
var url="https://api.brtransparencia.com.br/api";
var url2="https://api.brtransparencia.com.br";
...
Em Itaquara:
...
//variaveis
var entity = "1557447a-9381-44ad-9c0f-016868769479";
var code = "CODE_ENT_PM003";
var url = "https://api.brtransparencia.com.br/api";
var url2 = "https://api.brtransparencia.com.br";
...
Realmente acho que vale a pena conferir se generaliza legal pros outros municípios.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Boa @ogecece . Agradeço o feedback. Foi muito bem colocado.
Eu analizei aqui o cenário e fiz alguns testes aqui com essa regex, var {field}(\ )=(\ )"|'["|'];
E em ambos os casos ela foi capaz de extrair os códigos:
- var entity = "1557447a-9381-44ad-9c0f-016868769479";
- var entity="1557447a-9381-44ad-9c0f-016868769479";
- var entity = '1557447a-9381-44ad-9c0f-016868769479';
- var entity = '1557447a-9381-44ad-9c0f-016868769479';
Acho que chegamos em um nível de generalização bacana.
Adicionando o log dos novos testes:
ba_candeias_2023-01-01_2023-03-02.csv
ba_candeias_2023-01-01_2023-03-02.txt
5bac9ba5c8aec2e83d74684ca53ac373d85d715b.pdf
start_urls = [""] | ||
br_tranparencia_entity = "" | ||
br_tranparencia_code = "" | ||
power = "executive" |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Pelo que vi realmente não temos outra alternativa, vou aprovar ao menos essa etapa
allowed_domains = ["www.camaraibicoara.ba.gov.br"] | ||
start_urls = ["https://www.camaraibicoara.ba.gov.br/diario.html"] | ||
start_date = date(2022, 12, 29) | ||
br_tranparencia_entity = "63147391-dcb2-4d6c-9c5a-c4483a9d8306" |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Pelo que pesquisei, não há uma forma diferente de fazer a busca deste ID ao acessar o site
@talesmota aprovado, não encontrei mais nada a se comentar |
@talesmota vi que requisitou minha revisão, mas por enquanto vou me limitar aos pitacos, tá? O raton vai continuar a revisão aí e se precisar volto aqui |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota encontrei algumas coisas aqui que precisam ser alteradas, tendo em vista essas mudançás seria interessante que seja enviado os logs e csv's das execuções afetadas para evidenciar estes raspadores, acredito que por causa da questão da busca dos parâmetros o ideal seria o envio de todos os logs
allowed_domains = ["www.camaraibicoara.ba.gov.br", "api.brtransparencia.com.br"] | ||
start_urls = ["https://www.camaraibicoara.ba.gov.br/diario.html"] |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota o arquivo está com o nome de ba_candeias
, mas ao abrir a url caimos no site da Câmara Municipal de Ibicoara-Bahia, como tanbém podemos usar apenas o dôminio da api transparência
allowed_domains = ["www.camaraibicoara.ba.gov.br", "api.brtransparencia.com.br"] | |
start_urls = ["https://www.camaraibicoara.ba.gov.br/diario.html"] | |
allowed_domains = ["brtransparencia.com.br"] | |
start_urls = ["http://cmcandeiasba.brtransparencia.com.br/diario.html"] |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota neste caso aqui , o raspador atual não está funcionando corrretamente e redireciona para este novo site (http://conceicaodoalmeida.ba.gov.br), dessa forma você pode sobreescrever o arquivo em vez de criar um novo, como remover o ano do nome do raspador
TERRITORY_ID = "" | ||
allowed_domains = [] | ||
start_urls = [""] | ||
power = "executive" |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota este valor padrão aqui , acredito que seja melhor remover o atributo da classe mãe para que os desenvolvedores dos próximos raspadores sejam induzidos a verificar e informar em cada caso.
power = "executive" |
except AttributeError as exc: | ||
raise AttributeError("Was not possible to extract the entity code") from exc | ||
try: | ||
response_code = self._extract_code_from_response_text( | ||
response_text, field="code" | ||
) | ||
except AttributeError as exc: | ||
raise AttributeError("Was not possible to extract the code") from exc |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota nesses casos de exceção , é preferivél que deixe o raspador quebrar direto apenas, ou se preferir adicionar no log de erro e manter a exceção original
except AttributeError as exc: | |
raise AttributeError("Was not possible to extract the entity code") from exc | |
try: | |
response_code = self._extract_code_from_response_text( | |
response_text, field="code" | |
) | |
except AttributeError as exc: | |
raise AttributeError("Was not possible to extract the code") from exc | |
except AttributeError: | |
self.logger.error("Was not possible to extract the entity code") | |
raise | |
try: | |
response_code = self._extract_code_from_response_text( | |
response_text, field="code" | |
) | |
except AttributeError: | |
self.logger.error("Was not possible to extract the code") | |
raise |
TERRITORY_ID = "2916708" | ||
allowed_domains = ["www.itaquara.ba.gov.br", "api.brtransparencia.com.br"] | ||
start_urls = ["https://www.itaquara.ba.gov.br/diario.html"] | ||
start_date = date(2019, 1, 1) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota pesquisando no site deste raspador , o mais antigo encontrado foi de 26/07/2019
start_date = date(2019, 1, 1) | |
start_date = date(2019, 7, 26) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota neste caso aqui , o raspador atual não está funcionando corrretamente e redireciona para este novo site (https://www.itaquara.ba.gov.br/), dessa forma você pode sobreescrever o arquivo em vez de criar um novo, como remover o ano do nome do raspador
"cmriorealba.brtransparencia.com.br", | ||
"api.brtransparencia.com.br", | ||
] | ||
start_urls = ["https://http://cmriorealba.brtransparencia.com.br/diario.html"] |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
@talesmota acredito que o link aqui seja apenas http:
start_urls = ["https://http://cmriorealba.brtransparencia.com.br/diario.html"] | |
start_urls = ["http://cmriorealba.brtransparencia.com.br/diario.html"] |
AO ABRIR uma Pull Request de um novo raspador (spider), marque com um
X
cada um dos items da checklist abaixo. Caso algum item não seja marcado, JUSTIFIQUE o motivo.Layout do site publicador de diários oficiais
Marque apenas um dos itens a seguir:
Código da(s) spider(s)
custom_settings
em meu raspador.Testes
.log
deste teste está anexado na PR..log
e.csv
deste teste estão anexados na PR..log
e.csv
deste teste estão anexados na PR.Verificações
.csv
gerados pela minha coleta conforme a documentação não encontrando problemas..log
gerados pela minha coleta conforme a documentação não encontrando problemas.Descrição
Foi criado um Spider baseado no modelo replicável.
Issue relacionada
Testes
ba_saude_today.csv
ba_rio_real_2023-01-01_2023-03-01.csv
ba_saude_today.log
ba_rio_real_all.log
ba_rio_real_2023-01-01_2023-03-01.log