Site original : shaarli-Links
Dans /etc/ImageMagick-6/policy.xml
Remplacer
<policy domain="resource" name="memory" value="256MiB"/>
<policy domain="resource" name="map" value="512MiB"/>
<policy domain="resource" name="width" value="16KP"/>
<policy domain="resource" name="height" value="16KP"/>
<policy domain="resource" name="area" value="128MB"/>
<policy domain="resource" name="disk" value="1GiB"/>
<policy domain="coder" rights="none" pattern="PDF" />
par
<policy domain="resource" name="memory" value="1024MiB"/>
<policy domain="resource" name="map" value="1024MiB"/>
<policy domain="resource" name="width" value="16KP"/>
<policy domain="resource" name="height" value="16KP"/>
<policy domain="resource" name="area" value="1024MB"/>
<policy domain="resource" name="disk" value="1GiB"/>
<policy domain="coder" rights="read|write" pattern="PDF" />
Pour juste autoriser la lecture et création de pdf :
sudo sed -i 's#<policy domain="coder" rights="none" pattern="PDF" />#<policy domain="coder" rights="read|write" pattern="PDF" />#' /etc/ImageMagick-6/policy.xml
Sat, 26 June 2021, 14:00 UTC — Sun, 27 June 2021, 20:00 UTC
https://www.hackasat.com/
https://github.com/cromulencellc/
— Permalink
about:config
fission.autostart = true
— Permalink
Ah ouai 0_0
Suite de https://ecirtam.net/links/?JTandQ
— Permalink
C'est vraiment impressionnant la quantité de satellites Starlink qu'il y a.
via https://links.qth.fr/shaare/ZsvuUg
— Permalink
Il existe 850 fichiers torrents de SciHub (http://libgen.rs/scimag/repository_torrent/) contenant chacun 100 000 articles scientifiques, soit un total de 85 millions d’articles scientifiques à sauvegarder. Cela représente 77TB de données. Pour arriver à leur objectif, les internautes ont prévu d’agir en 3 étapes :
Étape 1 : Trouver 85 « datahoarders » pour stocker et disperser chacun 1 To d’articles, soit 10 torrents au total. Ils proposent ensuite aux internautes de télécharger 10 torrents aléatoires de cette collection puis de les charger dans un client Bittorrent et de les laisser en diffusion aussi longtemps que possible.
Étape 2 : Les volontaires doivent ensuite contacter 10 amis pour leur demander de récupérer un seul torrent aléatoire (100 Go). Cela représente 8 500 seeders.
Étape finale : Une fois la donnée sauvegardée, les initiateurs du projet souhaitent le développement d’un Sci-Hub open source afin de décentraliser le service et rendre celui-ci intouchable. Il existe des projets de ce type ici sur GitHub (https://github.com/freereadorg/awesome-libgen).