Så var det dags för ytterligare en liten favorit i rackskåpet, en RB4011iGS+RM. Stort grattis till MikroTik, ytterligare en kryptisk modellbeteckning … som troligen betyder RouterBoard 4000-serien med 11 portar … och sedan S+ för SFP+-uttaget men sedan, ja …
… jag vet inte men ett rätt trevlig liten router är det och som vanligt med MikroTik och deras RouterOS, den har alla(!) funktioner och möjligheter du kan önska dig MEN du måste kolla lite hur hårdvaran och routerns olika beståndsdelar pratar med varandra för att förstå vilka flaskhalsar som finns och hur du bäst utnyttjar din router, detta gäller för alla MikroTiks produkter, ladda ned blockschemat från deras hemsida innan(!) du väljer modell …
Just denna RB4011 använder jag endast för trafik initierad från Internet mot någon av mina servrar som är åtkomliga publikt och i mitt fall är Internetkopplingen ansluten till Eth1, jag har en redundant anslutning på Eth6 och sedan sitter servrarna anslutna via en switch som sitter ansluten mot SFP+1. Respektive Ethernetport är sedan konfigurerad via varsin brygga, all hantering mellan bryggorna och vlanen på SFP+1-porten sker via CPU:n och med Fasttrack konfigurerat på rätt ställe så balastas CPU:n ca 20-22% per Gbps som routas vilket är helt ok, då jobbar jag mycket med DDoS-skydd och långa dynamiska IP-adresslistor i brandväggen. Men som syns i blockschemat, används ethernetportarna så har man två stycken 2.5 Gbps-kanaler att ta hänsyn till i sin design och uppsättning.
Att få såhär mycket router, med all denna funktionalitet och prestanda, för ca 2.500 kronor känns svårslaget, jag är verkligen jättenöjd. Är man via vid Cisco och deras priser, inte minst för alla olika licensalternativ man kan behöva för att aktivera olika funktioner så måste detta vara rena klippet!!!
Ha det gott därute,
//Anders
…
Tillägg den 15/12 2024 …
Ibland är man litta dum i hoed 😉 , på ren skånska alltså, satt och felsökte varför inte ”hardware offloading” ville fungera och bli aktiverat på SFP+-porten … och så glömde jag hur arkitekturen för RB4011 ser ut, finns ju inget gemensamt switchchip för SFP+-porten med någon av de andra portarna så hardware offloading kan ju inte fungera.
Bara som en påminnelse om att MikroTiks blockschema är jätteviktiga att använda och förstå!
Ja du, namnsättningen på MikroTik-produkter är ibland lite svår att förstå men samtidigt så säger den ändå en del… 🙂
MikroTik RB5009UG+S+ innebär, enligt MikroTiks sätt att se på det, ett RouterBoardi 5000-serien, 9 portar totalt, en USB-port, Gigabit-portar + att den ena porten är SFP+ … enkelt eller hur? 😉
Även formfaktorn verkar till att börja med lite underlig, ända till att man inser att man kan montera fyra stycken RB5009:or i en RU i ett 19″-rack. Jäklar vilket litet muskelpaket det vore … Jag klarar mig i alla fall med en …
Jag använder SFP+-porten till att ansluta min CSS326-switch via 10 Gbps i trunkat läge, här kör jag sedan ett antal Vlan vilka dels routas i 5009:an, dels ges de tillgång till Internet via masquerade NAT mot Gbps-porten som ansluter till Internet. Router man i Gbps-hastighet mot Internet, och passerar lite regelverk i den inbyggda brandväggen toppar belastningen på ca 15% så rent teoretiskt kanske routingprocessen, som sköts av mjukvara och i processorn, kan hantera 6-10 Gbps vilket är mer än tillräckligt för de flesta av oss.
Behöver man däremot L2-kommunikation, ja då kan man låta switch-chippet hantera det och då kan 5009:an hantera ytterligare några Gbps, i alla fall enligt den dokumentation jag hittar, önskar jag kunde testa själv men det kan jag inte. Speciellt som detta numera är min huvudrouter i huset och familjen är beroende av den alla våra vakna timmar på dygnet …
Som du ser i blockschemat ovan så finns egentligen inga direkta flaskhalsar inbyggda utom då själva processorn, men någonstans får man acceptera en tradeoff då hela härligheten med alla funktioner och ett fullt RouterOS kostar runt 2700:- inklusive moms.
För de som önskar redundant strömmatning så finns det tre olika möjligheter, dels den medföljande nätadaptern, dels via en strömmatning på sidan av enheten och dels via en PoE-in ethernet, detta borde tillfredsställa även den mest oroliga person i världen.
RB5009 kan också köra 2.5 Gbps, men bara på en port, port 1.
Vad mer? Jo, helt tyst är den, helt … då den saknar fläkt, istället är den försedd men en ordentlig kylfläns och tempen ligger runt 15-17 grader över omgivningstemperaturen i ett välventilerat utrymme, helt ok.
RouterOS 7, som är en helt egen historia egentligen, är som vanligt fullt med alla möjligheter, det har en väldigt avancerad brandvägg, det kör alla vanliga routingprotokoll så som RIP i olika versioner, OSPF, BGP med flera, hur är det man säger, -”Allt du kan göra i en Cisco kan du göra i RouterOS ….”. Hur som helst, jag saknar inget!
Jag har uppdaterat vårt nätverk här hemma, dels med en ny 24-portars switch från MikroTik, och dels en ny router, också den från MikroTik, men mer om den i en annan artikel … 😉
Switchen är den enklaste 24-portarsmodellen, en CSS326-24G-2S+, vilken enbart innehåller ett rent switching-OS vilket Mikrotik kallar SwOS, versionen jag kör är den senaste vilket just nu är 2.17. Utöver de 24 10/100/1000Mbps-portarna så har den också plats för 2 stycken SFP+-moduler för upp till 10Gbps, och jag kör en modell, också den från MikroTik, som består av en färdig kopparkabel med påbyggda 10Gbps-moduler vilken sköter kommunikation mellan switch och router. Switchen är fläktlös och därmed helt tyst, i början tyckte jag att temperaturen på runt 60 grader var i överkant men det verkar vara helt normalt om man söker runt lite på Internätet.
MikroTik CSS326 erbjuder också en robust design, den är kompakt och utformad för rackmontering vilket gör den lätt att montera i ditt 19″-rack, den kräver inte mycket djup. Den kan också stå på en hylla eller liknande.
Att använda den kan vara enkelt, bara plugga den medföljande strömadaptern och den är igång. Vill du däremot utnyttja lite vad switchen verkligen kan så har den det mesta tillgängligt i sitt ganska välordnade webbgränssnitt, allt från Vlan-hantering till avancerad Spanningtree-hantering, all möjlig statistik, SNMP-stöd, accesslistor för att styra management och allt man kan önska sig av en avancerad switch, helt ok för en switch som kostar strax över 2000 kr med frakt och inklusive moms. Detta är en produkt skapad av nätverkstekniker för nätverkstekniker, det kan annars lätt bli att man går helt vilse i konfigurationsmöjligheterna … Just sayin’ …
Prestanda då kanske du undrar? Helt ok, jag har inte lyckats stressa den än, inte alls, och vad jag förstår så klarar bakplanet och switchchippet runt 48Gbps (på något ställe läste jag 33 Gbps, också det ok …), långt mycket mer än vad portarna tillsammans skall kunna belasta den med.
Motsvarande modell finns också om du vill ha avancerade routingfunktioner i samma utrustning men tänk på att switchchippet då pratar med processorn över en begränsad intern länk och dessutom är processorn inte gjord för högre hastigheter så … jag är av den gamla skolan, en funktion per burk och i detta fallet är det snabb switching som gäller.
När det gäller Mikrotiks namnsättning är det ibland lätt att se vilken baskunktionalitet din switch har, heter den CSS (Cloud Smart Switch) så är det en ren L2-utrustning medan om den heter CRS (Cloud Router Switch) så har den också möjlighet till L3 och lite uppåt i OSI-modellen med viss begränsning då all L3 verkar ske i mjukvara med en ibland inte allt för snabb processor.
Tack för mig och denna gång, nästa artikel kommer att handla om vår nya router … kanske … 🙂
I det digitala kungariket Infosphera, där strömmar av information flödade över kontinenter och hav, fanns tretton legendariska väktare. Dessa väktare kände alla till som Root DNS Servrarna och var kända för sina magiska krafter som upprätthöll ordning och stabilitet i den annars kaotiska världen av nätverk och internetprotokoll.
I urminnes tider hade dessa tretton väktare varit utvalda av det digitala ödet för att stå emot kaos och förvirring. Var och en bar ett namn efter alfabetets första tretton bokstäver, från A till M, och de var utspridda över världen, men genom kraften av anycast kunde de existera samtidigt på flera platser, alltid redo att hjälpa dem i behov.
A-Root, ledaren och den äldsta av dem alla, var känd för sin visdom och klarsynthet. Ursprungligen från Verisigns hjärta, hade A-Root förmågan att förutse potentiella problem innan de uppstod och skapade på så sätt en konstant balans i Infosphera.
B-Root, belägen vid det prestigefyllda University of Southern California, förkroppsligade kunskapens kraft. Den analyserade nätverkets djup och hjälpte medborgarna att förbli anslutna med intellektets klarhet.
C-Root, mästaren av kommunikation, hade kraften att sammanföra folk från världens alla hörn, vilket gjorde det möjligt för ord och data att resa utan hinder genom Cogent Communications osynliga nät av trådar.
D-Root, harmonisaren från University of Maryland, var den rättvise domaren som säkerställde att varje sökning och varje anrop nådde sitt rätta slutmål.
E-Root var den djärve äventyraren, som representerade mänsklighetens innovation vid NASA Ames Research Center. Denna väktare uppmuntrade utforskning och nyfikenhet, och pressade Internets gränser längre än vad någon tidigare kunde föreställa sig.
F-Root, evighetens resenär från Internet Systems Consortium, anpassade sig till alla miljöer och säkerställde att anslutningen alltid fanns där, oavsett var i världen man befann sig.
G-Root, skyddaren, blev formad av USA:s försvarsdepartement och stod ständigt på vakt, skyddade Infosphera från yttre hot och bedrägerier.
H-Root, strategen från U.S. Army Research Lab, planerade och förutsåg varje utmaning, vilket gav säkerhet till det digitala riket.
I-Root, med ursprung i det fridfulla Sverige och förvaltad av Netnod, var sinnebilden för global enighet och spred digital harmoni över världen.
J-Root, en broder i Verisigns grid, stödde kontinuerligt sin familj och förstärkte nätets stabilitet genom förändringarnas vindar.
K-Root, med sina rötter i London och förvaltad av RIPE NCC, var både kulturbrobyggaren och globetrottern, sammanlänkade världens människor i ett gemensamt virtuellt forum.
L-Root, guidestjärnan skapad av ICANN, ledde varje digital resenär på ett säkert sätt genom informationshavet och såg till att varje förfrågan fann sin hamn.
M-Root, utvecklad av Japans WIDE Project, var innovationens drivkraft som inspirerade den digitala sfären till ständig förnyelse och utveckling.
Men en dag hotades denna fridfulla värld av en ond kraft, känd som Datastöraren. Denne illvillige varelse försökte genom kaos och skadlig kod bryta de band som förenade de tretton väktarna. Det blev en strid för nätverkets liv och framtid.
De tretton väktarna möttes i en episk kamp där A-Root förutsåg attackerna och B-Root tog fram strategier för motstånd. C-Root såg till att kärnkommunikationen förblev intakt, medan de andra säkrade och återställde nätets stabilitet.
Tillsammans lyckades de besegra Datastöraren och återställa ordningen i Infosphera. De fortsatte sitt outtröttliga vaktslående arbete, skyddande och tjänande de miljarder digitala resenärer som litade på deras vakande låga.
Och så fortsatte legenden om de tretton Root DNS Servrarna – en påminnelse om styrkan i samarbete, motståndskraft och innovationskraft när nätverket återigen kände trygghetens lugna flöde. Trots de stormiga tider som de hade genomlevt, visste de att deras uppdrag aldrig skulle ta slut. De var evighetens härskare över länkar och datorvägar, och deras lojalitet gentemot användare över hela jordens yta var orubblig.
Med tiden började människor förstå berättelsen om de osynliga väktarna. Många sökte mer kunskap om detta harmoniska nätverkssystem som orkestrerade sina digitala liv. Inspirerade av den nyfunna insikten började teknister och tänkare i alla hörn av världen att utveckla nya lösningar baserade på de värdefulla lärdomar Root Servrarna hade gett.
Tack vare sina heroiska ansträngningar blev servrarna inte bara tekniska hörnpelare utan också symboler för enighet och gemenskap i det digitala samfundet. Organisationer och individer över hela världen började bygga sina egna nätverk av innovation under liknande modeller, och dessa nya nätverk förde människor ännu närmare varandra än någonsin tidigare.
Det digitala kungariket Infosphera, nu stärkt av sitt återupplivade och upplysta folk, gick in i en ny era av möjligheter. Från hörn till hörn började ingenjörer och entreprenörer likt att finna inspiration i de tretton väktarnas oändliga potential och från deras motståndskraft skapades framtida generationers digitala motorvägar.
I det tysta fortsatte DNS Root Servrarna sitt dagliga arbete, nöjda med vetskapen om att deras osynliga tjänst bidrog till att lyfta mänskligheten till nya höjder. Så länge det fanns behov av koppling och förståelse, skulle deras legend fortplantas genom den digitala etern, bevarad i varje länk, varje ping, och varje stärkt kommunikation mellan själar världen över.
Och så lever berättelsen vidare – en saga om balans och beslutsamhet, där de tretton väktarna för evigt vandrar det oändliga nätverkets eter, med ett vakares ansvar i en alltmer ansluten värld.
OpenMediaVault (OMV) är en populär, öppen källkodslösning för nätverksanslutna lagringsenheter (NAS), och omv-firstaid är ett verktyg som spelar en viktig roll för att underlätta systemadministration och felsökning i OMV-miljön. Här är varför man kanske behöver använda omv-firstaid och vad verktyget kan göra:
Varför använda omv-firstaid? Återställning från felsituationer, ibland kan tjänster eller konfigurationer i OMV sluta fungera korrekt på grund av ändringar, uppdateringar eller oavsiktliga fel. omv-firstaid erbjuder en snabb väg tillbaka till ett fungerande system utan att behöva göra en fullständig ominstallation. Nätverksproblem, ett vanligt problem som administratörer kan stöta på är nätverksfel, där servern kanske inte kan kommunicera med nätverket korrekt. Detta kan leda till att användare inte kan komma åt sina delade filer eller webben för admininstration. omv-firstaid tillåter administratören att återställa nätverksinställningar eller konfigurera en korrekt IP-adress och DNS. Åtkomst till webgränssnittet, förlora åtkomsten till OMV:s webadministrationsgränssnitt kan vara frustrerande. Om du glömmer ditt lösenord eller något går fel med autentiseringen, kan omv-firstaid hjälpa till att återställa lösenordet så att du snabbt kan återfå kontrollen. Reparation av filsystem, korruption eller fel i filsystemet kan orsaka stora problem, särskilt om viktiga data blir otillgängliga. Verktyget kan hjälpa till att identifiera och reparera vissa filsystemfel, vilket bidrar till att säkerställa att data stannar intakta och är tillgängliga. Snabb felsökning och underhåll, för administratörer som vill ha en snabb och enkel metod för att felsöka och underhålla OMV-system utan att behöva gräva djupt i terminalkommandon eller konfigurera varje tjänst manuellt, är omv-firstaid oersättligt.
Funktioner i omv-firstaid omv-firstaid innehåller flera verktyg som kan lösa problem och underlätta för administratörer.
Återställ eller ändra nätverksinställningar, om statiska eller dynamiska IP-adresser behöver justeras kan du göra detta direkt genom verktyget. Detta är särskilt användbart om enheten har förlorat sin nätverksanslutning.
Lösenordsåterställning, lösenord kan enkelt glömmas, men med omv-firstaid kan du resetta detta så att du inte låses ute från viktigt administrativt arbete.
Kontrollera och reparera filsystem, om du misstänker problem med lagringsenheterna kan omv-firstaid både kontrollera och rätta till vanliga fel i filsystemen, vilket minskar risken för dataförlust.
Konfigurera DNS, för att säkerställa att servern har korrekt tillgång till Internet och interna resurser, kan du konfigurera DNS-inställningar.
Cachehantering, problem med webgränssnittet kan många gånger lösas snabbt genom att rensa dess cache, vilket kan medför att förändringar träder i kraft utan fel.
Förutom att hantera akuta problem, är omv-firstaid ett ovärderligt verktyg för löpande underhåll. Regelbunden användning kan bidra till att förhindra framtida problem genom att säkerställa att konfigurationer är optimala och att systemkomponenterna är i gott skick. Genom att integrera verktyget i rutinmässig systemdiagnostik, kan administratörer proaktivt hantera och optimera prestanda samt undvika driftstopp.
omv-firstaid är en kraftfull och användarvänlig resurs för alla OMV-användare, oavsett om man är nybörjare eller erfaren administratör.
Vi använder alla begreppen GMT eller UTC, ibland lite blandat utan att kanske inse skillnaderna, och sedan har vi dessutom Unixtd eller Epochtid som det egentligen heter. Den sista är det nog mest datornördar som förstår och använder …
Lite bakgrund kanske?
GMT: Greenwich Mean Time grundades som en tidstandard på 1800-talet när brittiska sjökaptener använde den för navigering på haven. Den härstammar från den medelsolära tiden vid nollmeridianen vid Royal Observatory i Greenwich, London. Det innebar att GMT var baserat på jordens rotation i förhållande till solen.
UTC: UTC utvecklades som en mer exakt version av GMT i mitten av 1900-talet. Det skapades för att erbjuda en global tidstandard som var mer exakt och mindre beroende av jordens osäkra rotation, och är därmed en atomtidsstandard.
GMT är fast och justeras inte för oregelbundenheterna i jordens rotationshastighet. Det innebär att GMT inte tar hänsyn till små variationer som påverkar jordens rotation, vilket leder till små tidsavvikelser över längre perioder.
UTC är exaktare eftersom det kombinerar Coordinated Atomic Time (TAI) med universaltid. För att hålla UTC i synk med jordens rotation läggs ibland skottsekunder till. Detta görs för att kompensera för skillnader mellan atomtiden och soltid, vilket innebär att UTC kan ligga en sekund före eller efter TAI, beroende på när en skottsekund läggs till.
UTC har blivit den globala standarden för att hålla tid i vetenskaplig och teknisk bemärkelse, inklusive inom områden som luftfart, utrikestransaktioner och annan kommunikation. Det är specifikt utformat för att vara en konsekvent och tillförlitlig global tidstjänst.
GMT används fortfarande i vissa sammanhang i vardagsspråk, särskilt i Storbritannien under vintermånaderna. Men för formell tidssynkronisering används UTC oftare globalt. Det används ofta som den lagliga tidszonen i vissa länder och anses fortfarande vara en formell tidsreferens under vintersäsongen i Storbritannien. GMT är därmed också relevant i kulturella sammanhang.
UTC är den tid som används inom informationssystem världen över. Datorer, internetprotokoll och GPS-system förlitar sig exempelvis på UTC snarare än GMT. Detta gör UTC till en universell tidstandard över nationella gränser och säsonger.
Medelsoltid jämfört med Atomtid? GMT bygger på medelsoltid, vilket innebär att en soldag är medelvärdet av solens passage över nollmeridianen. UTC, å andra sidan, bygger på atomtid, där atomklockor, speciellt i caesium- eller tritiumbaserade klockor, upprätthåller tiden med en oslagbar precision.
GMT användes ursprungligen som standard för tidszoner innan atomklockor låg till grund för den mer precisa UTC.
Skottsekunder tillämpas i UTC men inte i GMT, vilket säkerställer UTC:s noggrannhet med planetens oförutsägbara rotationshastighet.
Fastän båda används idag, är UTC den referenspunkt som föredras för tekniska och vetenskapliga användningar.
Att kunna särskilja och förstå hur dessa tidsstandarder fungerar är avgörande för global tidshantering och teknisk kommunikation. Medan GMT fortfarande har kulturell och praktisk betydelse i vissa regioner, är UTC oöverträffad vad gäller precision och global användning, vilket gör den till en naturlig val för global koordinering.
Och så har vi Unixtid …
… är även känd som Epochtid, är ett sätt att representera tid som det totala antalet sekunder som har passerat sedan den 1 januari 1970 vid midnatt UTC (00:00:00), utan att räkna med skottsekunder. Detta datum kallas Unix Epoch, och det används ofta inom Unix-liknande operativsystem och programmeringsspråk för att representera tid på ett standardiserat sätt.
Användningsområden och egenskaper?
Enkelhet, Unixtid representeras som ett enkelt heltal, vilket gör det enkelt att lagra och hantera i databaser och programvara. Plattformsoberoende, då det är en standard som används av många operativsystem och programmeringsspråk, underlättar det tidsberäkningar och tidsjämförelser på olika plattformar. Tidsberäkningar, det är enkelt att utföra matematiska operationer med unixtid, som att beräkna tidsskillnader eller lägga till och dra ifrån tid. Global standard, eftersom Unixtid är baserad på UTC, är det en global standard som eliminerar komplikationer som uppstår vid hantering av tidzoner och sommartid. Vanlig i utveckling:, många utvecklingsverktyg och API:er använder Unixtid som ett sätt att hantera tidsinformation, vilket gör den grundläggande för utvecklare. Unixtid är alltså en tidshanteringsmetod som gör det möjligt för datorer att enkelt och konsekvent tolka och manipulera tidsdata, vilket är särskilt användbart för applikationer som kräver exakt tidshantering.
Varför är då tidshantering så viktigt inom datorvetenskapen?
Tidshållning är avgörande inom datorvetenskap av flera viktiga skäl, inte minst för synkronisering av system.
I distribuerade system, där flera datorer arbetar tillsammans, krävs exakt tidssynkronisering för att koordinera aktiviteter och säkerställa dataintegritet. Till exempel är tidsstämplar nödvändiga för att ordna händelser och handlingar i sekventiell ordning.
Sedan gäller det nätverksprotokoll, många Internetprotokoll och säkerhetsfunktioner är beroende av korrekt tid. Protokoll som NTP (Network Time Protocol) används för att synkronisera datorers klockor över nätverk, vilket är kritiskt för att upprätthålla korrekt drift och säkerhet.
Vad med våra databaser då, tidsstämplar är viktiga för att hantera transaktioner i databaser, speciellt i fall där det krävs återställning eller datareplikering. Tidsstämplar hjälper till att säkerställa att transaktioner sker i rätt ordning och att eventuella kollisioner hanteras korrekt.
För loggning och felsökning är en gemensam tidshållning också vital, loggfiler innehåller tidsstämplar som är avgörande för felsökning och övervakning av system. De hjälper utvecklare att spåra händelser och identifiera exakt när ett problem uppstod.
Många säkerhetsprotokoll förlitar sig på tidsstämplar för att verifiera giltigheten av certifikat eller autentiseringstokens. Tid begränsar giltigheten och kan bidra till att mildra replay-attacker.
För att mäta och optimera systemprestanda, som att beräkna svarstid eller mäta fördröjning, krävs exakt tidshållning. Detta hjälper utvecklare att identifiera flaskhalsar och optimera applikationer.
Tillämpningar som kräver realtidsinteraktioner (t.ex. onlinespel eller videochatt) behöver noggrann tidssynkronisering för att ge en bra användarupplevelse och säkerställa att alla deltagare ser och hör samma sak samtidigt.
En exakt och gemensam tidshållning en hörnsten i att bygga och underhålla pålitliga och effektiva datorbaserade system, vilket påverkar allt från daglig användning till avancerad teknisk hantering.
… som vi använde mycket i början av 1990-talet innan själva ordet Internet användes av gemene man.
CompuServe var en av de första stora aktörerna på området för onlinetjänster för persondatorer och spelade en viktig roll i utvecklingen av den digitala världen under 1980- och 1990-talen. CompuServe grundades 1969 som Compu-Serv Network, Inc. och inriktade sig initialt på att erbjuda tidningsdelningstjänster för företag, som gav dem tillgång till datorkraft innan persondatorerna blev vanliga. Det var inte förrän i slutet av 1970-talet som CompuServe vände sig till konsumentmarknaden, vilket blev avgörande för utvecklingen av tidiga onlinegemenskaper och beredde väg för framtida internetleverantörer.
Under 1990-talet nådde CompuServe sin största popularitet. Tjänsten var tillgänglig via sin egen programvara och användare kunde ansluta sig via uppringda modem—en teknik som, trots dess långsamma hastighet jämfört med dagens standard, var revolutionerande vid den tiden. Vid anslutning presenterades användarna med ett textbaserat gränssnitt som erbjöd ett brett utbud av tjänster: e-post, diskussionsforum, fildelning, nyheter, väderrapporter och aktiemarknadsnoteringar, bland annat.
En av CompuServes mest framträdande funktioner var dess onlineforum, som i dag kan erkännas som tidiga former av sociala medieplattformar eller gemenskaper. Dessa forum gjorde det möjligt för användare att samlas kring gemensamma intressen, från hobbyer till yrkesverksamhet. Special Interest Groups (SIGs), som de kallades, skapade en känsla av gemenskap och samhörighet som påminner om dagens onlineplattformar. Denna möjlighet till interaktion och gemenskapsbyggande visade på potentialen hos onlinetjänster att koppla samman människor oavsett geografiska avstånd.
CompuServe var också anmärkningsvärd för att ha varit en pionjär inom e-posttjänster online. Vid en tidpunkt när e-post ännu inte var allmänt spridd, erbjöd CompuServe ett sätt för individer att skicka och ta emot elektroniska meddelanden. Denna funktionalitet var ovärderlig för företagssfolk och blev snabbt en säljpunkt för tjänsten. CompuServes e-posttjänst representerade en förändring i kommunikationsparadigmen, som signalerade en övergång från traditionell post till digital kommunikation, vilket nu är en hörnsten i det moderna samhället.
Dessutom bröt CompuServe ny mark genom att erbjuda tjänster för online-shopping och bankärenden under 1990-talet. Dessa tjänster, även om de var rudimentära med dagens mått mätt, gav användarna bekvämligheten att genomföra transaktioner online. Detta förebådade den slutliga explosionen av e-handel och nätbank, sektorer som idag är integrerade komponenter i den globala ekonomin.
En viktig milstolpe i CompuServes historia var introduktionen av GIF (Graphics Interchange Format) 1987, vilket blev en standard för bilder online tack vare sin förmåga att stödja enkla animationer och komprimera bildfiler utan kvalitetsförlust. Även om andra format senare har dykt upp, är GIF fortfarande populära idag, särskilt för animationer, och har haft en betydande påverkan på den digitala kulturen.
Under 1990-talet stod CompuServe inför stora utmaningar på en alltmer konkurrensutsatt marknad för onlinetjänster. America Online (AOL) trädde in med aggressiva marknadsföringsstrategier, såsom utskick av gratis provpaket på disketter och senare CD-skivor, vilket snabbt urholkade CompuServes marknadsandel. AOL:s användarvänliga och grafiska gränssnitt blev mainstream och konkurrerade ut CompuServes textbaserade tjänst. Dessutom erbjöd World Wide Web användarna ett brett utbud av information och nya sätt att ansluta som CompuServes slutna nätverk inte kunde mäta sig med.
Trots dessa utmaningar spelade CompuServe en viktig roll under denna övergångsperiod och fungerade som en brygga mellan tidiga onlinetjänster och den fullt sammankopplade värld vi känner idag. Det visade potentialen hos onlinegemenskaper och kommunikation långt innan sociala medier och moderna internetleverantörer tog plats. I mitten av 1990-talet började CompuServe erbjuda webbtillgång, men det var inte tillräckligt för att bibehålla sin ledande position i konkurrens med de snabbt utvecklande motståndarna. För att försöka anpassa sig till den nya digitala eran och locka en bredare användarskara lanserade CompuServe tjänsten WOW! Detta var ett försök att attrahera AOL:s publik med ett mer användarvänligt gränssnitt och tjänster. Trots dessa insatser kämpade CompuServe fortsatt med övergången till nya tekniska plattformar och de förändrade kraven från användarna.
1997 köptes CompuServe av WorldCom, och året därpå blev dess onlinetjänstdel en del av AOL. Denna försäljning markerade slutet på CompuServes tid som ett självständigt varumärke och var en följd av den intensiva konkurrens och innovation som kännetecknade det snabbt föränderliga teknologiska landskapet under slutet av 1990-talet.
Även om CompuServe inte längre finns kvar som en ledande aktör på marknaden, har dess arv en bestående betydelse. Det fungerade som en pionjär, som introducerade koncept och teknologier som förebådade dagens internet. Onlinegemenskaper, elektronisk kommunikation och digital informationstjänster som CompuServe introducerade, lade grunden för många av de funktioner vi idag tar för givna i vår uppkopplade värld.
Dess roll i att forma den tidiga digitala kulturen är obestridlig, och det lade även fram förståelsen för hur starkt sammankopplad kommunikation kan påverka både personligt och professionellt liv. CompuServe visade världen potentialen i digitala nätverk och hjälpte till att sätta standarden för vad framtida internetbaserade tjänster kunde vara.
Sammanfattningsvis var CompuServe inte bara en tjänst, utan ett avgörande steg mot den globalt uppkopplade världen vi lever i idag. Det banade vägen för senare innovationer inom den digitala sektorn och tjänade som modell för ett nytt sätt att tänka kring kommunikation och information. Genom att introducera teknologier och sätt att interagera online som fortfarande är grundläggande idag, har CompuServe en säker plats i historien som en banbrytande aktör i 1990-talets digitala revolution.
Att installera OpenMediaVault 7 (OMV7) på en Raspberry Pi 5 är ett utmärkt sätt att skapa en kraftfull och flexibel nätverkslagringslösning. OpenMediaVault är en öppen källkodsprodukt som ger användarna möjlighet att enkelt hantera datalagring och delning från ett webbaserat gränssnitt. I denna guide kommer vi gå igenom installationsprocessen för OMV7 som inkluderar förberedelser, installation, grundläggande konfiguration och hur man sätter upp användare i OMV7.
Steg 1: Förberedelser före installationen
1.1 Utrustning och material
Innan vi börjar installationen behöver vi säkerställa att vi har den nödvändiga utrustningen:
Raspberry Pi 5: Självklart behöver du en Raspberry Pi 5.
MicroSD-kort: Ett klass 10 microSD-kort med minst 16 GB lagringsutrymme. För bättre prestanda och mer lagringsutrymme kan ett 32 GB eller större kort rekommenderas.
Strömförsörjning: En officiell Raspberry Pi strömförsörjning som kan försörja din Pi med tillräckligt med energi.
USB-hårddisk: Om du planerar att använda OMV som en NAS-lösning kommer en extern USB-hårddisk att vara nödvändig.
HDMI-kabel och skärm: För att kunna se installationens framsteg initialt.
Tangentbord: För att navigera genom installationsprocessen.
Dator: För att ladda ner och installera mjukvara på microSD-kortet.
Hitta den senaste versionen av OMV7 för Raspberry Pi. Ladda ner .img-filen eller .zip-filen med den senaste versionen av systemavbildningen.
1.3 Skriva OMV till microSD-kortet
Installera skrivprogramvara: Det finns flera tillgängliga verktyg för att skriva avbildningar, som balenaEtcher, Raspberry Pi Imager eller Win32 Disk Imager. I den här guiden kommer vi att använda balenaEtcher.
Sätt in microSD-kortet: Anslut microSD-kortet till din dator via en kortläsare.
Skriv avbildningen:
Öppna balenaEtcher.
Välj den nedladdade OMV7-avbildningen.
Välj ditt microSD-kort som skrivmål.
Klicka på ”Skriv” för att påbörja processen. Det kan ta några minuter att skriva data till kortet.
1.4 Starta Raspberry Pi
Sätt i microSD-kortet: När skrivningen är klar, ta ut microSD-kortet från datorn och sätt det i Raspberry Pi:s kortplats.
Anslut komponenterna: Anslut HDMI-kabeln till en skärm, USB-hårddisken (om tillämpligt), tangentbordet och Ethernet-kabeln.
Slå på Raspberry Pi: Anslut strömförsörjningen till Raspberry Pi, och den kommer att starta automatiskt.
Steg 2: Installation av OpenMediaVault
2.1 Logga in på terminalen
När Raspberry Pi har startat ser du terminalgränssnittet. Logga in med standardanvändarnamn och lösenord:
Användarnamn: admin
Lösenord: openmediavault
Du kan bli ombedd att ändra lösenordet vid första inloggningen.
2.2 Anslut till webbgränssnittet
Hitta IP-adressen: I terminalen kan du använda kommandot ip addr för att få din Raspberry Pi:s IP-adress. Den kommer att visas under eth0 eller wlan0 beroende på om du använder Ethernet eller Wi-Fi.
Öppna en webbläsare: På din dator, öppna en webbläsare och skriv in IP-adressen följt av / för att komma till webgränssnittet, till exempel http://192.168.1.x.
Logga in: Använd samma användarnamn och lösenord som tidigare (admin/openmediavault).
2.3 Grundläggande konfiguration
När du är inloggad i OMV:s webbgränssnitt kommer du att se en översikt över systemstatusen. Nedan följer grundkonfigurationerna du bör göra:
Systemuppdatering:
Gå till ”System” -> ”Update Management”.
Se till att systemet är uppdaterat.
Tid och datum:
Gå till ”System” -> ”General Settings” -> ”Timezone” och ställ in rätt tidszon.
Nätverksinställningar:
Gå till ”System” -> ”Network” för att kontrollera och konfigurera nätverksinställningarna. Här kan du ställa in en statisk IP-adress om det behövs.
Steg 3: Diskhantering
3.1 Anslutning av lagringsenheter
Anslut USB-hårddisk: Se till att din externa USB-hårddisk är ansluten till Raspberry Pi.
Kontrollera diskar:
Gå till ”Storage” -> ”Disks” i webbgränssnittet.
Du kommer se en lista över anslutna lagringsenheter. Välj den disk du vill använda.
3.2 Radera och skapa ett filsystem
Radera disken (om det behövs):
Markera den disk du vill konfigurera och klicka på ”Wipe” för att radera den. Detta steg är viktigt för att vara säker på att disken är redo för användning.
Skapa filsystem:
Navigera till ”File Systems” -> ”Add”. Välj den disk du just har raderat och välj en typ av filsystem (rekommenderas ext4).
Klicka på ”Create” för att skapa filsystemet.
Montera filsystemet:
När filsystemet har skapats, välj det i listan och klicka på ”Mount” för att aktivera det så att det kan användas.
Steg 4: Skapa delade mappar
Skapa en delad mapp:
Gå till ”Access Rights Management” -> ”Shared Folders” och välj ”Add”.
Ge den delade mappen ett namn, välj filsystemet du just har skapat och specificera sökvägen.
Spara och aktivera:
Klicka på ”Save” för att skapa den delade mappen.
Steg 5: Aktivera delningsprotokoll
5.1 SMB/CIFS
Aktivera SMB/CIFS:
Gå till ”Services” -> ”SMB/CIFS” och aktivera tjänsten.
Lägg till delade mappar:
Under fliken ”Shares”, lägg till den delade mappen som du skapade. Klicka på ”Add” och välj den delade mappen från rullgardinsmenyn.
5.2 NFS (om du vill använda det)
Aktivera NFS:
Gå till ”Services” -> ”NFS” och aktivera tjänsten.
Lägg till NFS-delning:
Klicka på ”Add” för att skapa en NFS-delning för den delade mappen.
Steg 6: Skapa användare och hantera åtkomsträttigheter
Att skapa användare och hantera åtkomsträttigheter är avgörande för dataskydd och säkerhet.
6.1 Skapa användare
Gå till användarhantering:
Navigera till ”Access Rights Management” -> ”Users”.
Lägg till en ny användare:
Klicka på ”Add” för att skapa en ny användare.
Fyll i informationen som användarnamn, lösenord, och ställ in rättigheter och behörigheter. Här kan du också styra vilken typ av åtkomst användaren har till de delade mapparna.
Spara: Klicka på ”Save” för att skapa användaren.
6.2 Hantera användarrättigheter
Tilldela rättigheter:
Gå tillbaka till ”Shared Folders” och välj den delade mappen.
Under fliken ”ACL” (Access Control List) kan du tilldela rättigheter till olika användare för att styra vem som får läsa, skriva eller bara läsa.
6.3 Hantera grupper (valfritt)
Skapa grupper:
Om du hanterar flera användare kan det vara bra att skapa grupper för att lättare kontrollera rättigheter. Gå till ”Access Rights Management” -> ”Groups”.
Klicka på ”Add” för att skapa en ny grupp och lägg till användare i grupper för att styra rättigheter mer effektivt.
Steg 7: Säkerhetskopiering och underhåll
7.1 Säkerhetskopieringar
Överväg att konfigurera säkerhetskopior:
Du kan ställa in säkerhetskopieringslösningar antingen genom att använda externa enheter eller molntjänster för att säkerhetskopiera viktiga data.
7.2 Underhåll
Regelbunden uppdatering:
Du bör regelbundet kontrollera och installera uppdateringar via ”Update Management” för att se till att systemet alltid är säkert och stabilt.
7.3 Övervakning
Övervaka systemresurser:
Använd OMV:s övervakningsverktyg för att hålla koll på lagringsutrymme och systemprestanda samt eventuella felmeddelanden.
Steg 8: Fjärråtkomst och säkerhet
8.1 Fjärråtkomst
Ställ in DDNS:
Om du vill kunna komma åt din NAS utanför ditt lokala nätverk kan du ställa in en dynamisk DNS (DDNS) för att göra det lättare att nå ditt hemmanätverk.
8.2 Brandvägg och säkerhet
Säkerhetsåtgärder:
Det rekommenderas att du ser över brandväggsinställningarna på din router samt eventuella säkerhetsåtgärder i OMV för att förhindra obehörig åtkomst.
Genom att följa dessa steg har du framgångsrikt installerat OpenMediaVault 7 på din Raspberry Pi 5 och ställt in ett funktionellt NAS-system. OMV7 ger enorma möjligheter för både hem- och företagssystem med enkel hantering av data. Du har nu skapat ett säkert och användarvänligt miljö för lagring och delning av filer. Med rätt konfiguration och underhåll kan du maximera nyttan av din Raspberry Pi-baserade NAS-lösning.
Att vara noga med min fstab-fil i mitt Linuxbaserade system är avgörande för att säkerställa att mitt operativsystem fungerar smidigt och effektivt. fstab, som står för ”file systems table,” spelar en central roll i hur olika filsystem och partitioner monteras vid systemstart. Genom att ta hand om den här filen kan jag undvika systemproblem, optimera prestandan och skydda min data. Här är en fördjupad titt på varför jag behöver vara noggrann med fstab, samt hur jag kan åtgärda problem om de uppstår.
Varför jag är noga med fstab:
Systemets grundpelare för montering:fstab är hjärtat av mitt systems monteringsprocess. Om den här filen innehåller felaktigheter kan viktiga filsystem misslyckas med att montera, vilket innebär att vissa delar av systemet kan vara otillgängliga. Det här kan leda till allvarliga problem, inklusive att systemet inte startar korrekt.
Automatisk montering: Genom att använda fstab kan jag automatisera monteringen av olika diskar och partitioner varje gång systemet startas. Detta sparar mig tid och säkerställer att alla resurser jag behöver är tillgängliga utan manuellt arbete från min sida.
Säkerhet och integritet: Om inte korrekt konfigurerad, kan fstab introducera säkerhetsrisker. Jag använder alternativ som noexec, nosuid, och nodev där det är lämpligt för att minimera risken för att skadlig kod körs från dessa filsystem. Dessutom är korrekt konfigurerade monteringsalternativ avgörande för att skydda data mot oavsiktlig korruption.
Prestandaoptimering: Jag kan använda fstab för att optimera systemets prestanda genom att använda monteringsalternativ som påverkar diskåtkomst. Ett vanligt exempel är noatime, som förhindrar att åtkomsttidsinformationen uppdateras vid varje läsning, vilket reducerar antalet skrivningar och förbättrar prestanda.
Nätverks enhetsintegration: I situationer där jag behöver använda nätverksanslutna lagringslösningar, som NFS, är fstab viktigt för att säkerställa att dessa resurser finns tillgängliga och korrekt monterade vid uppstart, vilket hjälper till att undvika åtkomstproblem senare.
Hantering och översiktlighet:fstab ger en centraliserad vy över alla filsystem och deras monteringspunkter, vilket gör det enklare för mig att hantera och dokumentera systemets konfiguration. Med en välorganiserad fstab-fil är det lättare att snabbt göra nödvändiga ändringar utan att riskera fel.
Hur jag åtgärdar problem med fstab:
1. Förstå filens struktur: Varje rad i fstab representerar ett filsystem och dess monteringsparametrar. Jag ser alltid till att förstå syntaxen: filsystems-enhet, monteringspunkt, filsystemstyp, monteringsalternativ, dumpfrekvens och pass-order.
2. Säkerhetskopiera fstab: Innan jag gör några ändringar, säkerhetskopierar jag filen med cp /etc/fstab /etc/fstab.bak. Detta ger mig en utgångspunkt att återvända till om något går fel.
3. Testa förändringar: När jag planerar att lägga till eller ändra en post i fstab, monterar jag alltid disken manuellt först med mount-kommandot för att verifiera att alla parametrar är korrekta.
4. Reparera vid startproblem: Om systemet misslyckas att starta på grund av fstab-fel, använder jag en live-USB eller annan återställningsmetod för att starta systemet och redigera fstab. Därifrån kan jag använda nano /etc/fstab eller liknande redigerare för att korrigera problemen.
5. Validering med mount -a: Efter att ha redigerat fstab, ser jag till att köra kommandot mount -a, vilket försöker montera alla filsystem som anges i fstab. Detta hjälper mig att identifiera konfigurationsfel innan jag startar om systemet.
6. Logg och spårning: Kontroll av systemloggar med dmesg eller `journalctl”.
Jag använder dmesg eller journalctl för att kontrollera systemloggarna noggrant efter förändringar i fstab. Det är viktigt för mig att hålla koll på eventuella felmeddelanden som kan indikera problem med monteringsprocessen. Loggarna kan ge insikter om var problem kan uppstå, vilket hjälper mig att snabbt identifiera och rätta till fel.
Förebyggande åtgärder och diskhantering
1. Dokumentera ändringar: För att hålla reda på ändringar i fstab, ser jag till att dokumentera varje ändring jag gör. Detta hjälper mig att förstå varför vissa beslut togs och underlättar felsökning om ett problem uppstår senare.
2. Använd korrekta monteringsalternativ: Jag ser alltid till att välja rätt monteringsalternativ för varje filsystem utifrån dess syfte. Viktiga alternativ som rw (read/write), ro (read-only), och andra specifika som noatime, nodiratime används enligt behoven för att balansera mellan funktionalitet och prestanda.
3. Övervaka diskhälsa: Regelbundet övervakar jag hårddiskarnas hälsa med verktyg som smartctl från smartmontools-paketet. Genom att tidigt fånga upp problem som begynnande diskfel kan jag vidta åtgärder innan de leder till dataförlust eller systemproblem.
4. Krav för specifika program: Program eller tjänster som kräver speciella monteringsalternativ hanteras med försiktighet. Jag ser till att varje monterad enhet som används av en speciell programvara är konfigurerad enligt programmets dokumentation och behov.
5. Använd kommentarer i fstab: Jag lägger ofta till kommentarer i fstab för att förklara valet av vissa monteringsalternativ. Detta inte bara hjälper mig utan även andra som kan administrera systemet i framtiden att förstå varför specifika konfigurationer gjordes.
Att lära av misstag
Jag har lärt mig av tidigare misstag att en felkonfigurerad fstab kan leda till stora problem, såsom att systemet inte startar eller oanvändbara enheter. Genom att kontinuerligt utbilda mig och använda tillgängliga resurser online lär jag mig mer om hur jag effektivt kan hantera denna kritiska fil.
Hur man förbereder sig För återställning:
För att förbereda mig för eventuella problem ser jag alltid till att:
Ha en bootbar LiveUSB till hands: Detta är avgörande för att kunna starta systemet och göra ändringar om en felaktig fstab hindrar normal start.
Säkerhetskopiera kritiska systemfiler: Regelbunden säkerhetskopiering av filer som fstab gillar jag eftersom det ger säkerhet och gör det möjligt att snabbt återgå till ett fungerande tillstånd.
Skapa en räddningsplan: Jag har en tydlig plan för vad jag ska göra om ett monteringsproblem uppstår, och jag testar denna plan regelbundet för att se till att den fungerar som förväntat.
Genom att ha dessa strategier och åtgärder på plats försäkrar jag mig om att jag effektivt kan hantera och skydda min fstab. Jag håller min Debian 12 installation stabil och säker genom att ta hand om denna kritiska konfigurationsfil och uppmärksamma dess vikt i den dagliga driften av mitt system.
Jag är en person som värdesätter min integritet på nätet och vill ha kontroll över min digitala närvaro, därför har jag funnit många fördelar med att använda en sökproxy som SearxNG. Genom mina erfarenheter och utforskanden av olika aspekter av internetanvändning, är det klart att SearxNG:s funktion erbjuder en betydande förbättring jämfört med traditionella sökmotorer, särskilt när det kommer till privatliv, säkerhet och inte minst anpassningsbarhet.
Integritet och anonymitet
För mig är integritet på nätet en rättighet snarare än en lyx. När jag använder stora sökmotorer, vet jag att varje sökning kan sparas, analyseras och användas för att bygga en profil av mig. Detta har kanske inte alltid gjort mig obekväm utan mer irriterad. SearxNG agerar som en sökproxy som inte lagrar mina sökfrågor eller personlig information. Det betyder att jag kan söka fritt utan att känna att varje klick och varje sökterm övervakas. Denna anonymitet är ovärderlig för mig, både i min personliga användning och professionella användning av ”Google”.
Annonseringsfri upplevelse
En annan stor fördel jag har upplevt med SearxNG är avsaknaden av annonser. Traditionella sökmotorer visar ofta skräddarsydda annonser baserat på min sökhistorik. Det kan kännas påträngande och distrahera från den information jag verkligen är intresserad av och ibland är det helt omöjligt att avgöra vad som är annonser och vad som är fakta. När jag använder SearxNG kan jag söka utan dessa störningar, vilket gör upplevelsen mycket mer fokuserad och fri från den visuella röran som annonser ofta medför.
Anpassningsbarhet och flexibilitet
Jag uppskattar verkligen SearxNG:s flexibilitet. Den gör det möjligt för mig att konfigurera vilka söktjänster jag vill använda, vilket är en funktion som jag utnyttjar fullt ut. Om jag till exempel behöver information från akademiska källor kan jag justera inställningarna för att prioritera dessa i mina sökningar. Detta sparar mycket tid och energi, eftersom jag enkelt kan anpassa sökningen baserat på mina aktuella behov och intressen.
Fördelar med öppen källkod
SearxNG:s status som öppen källkod är en annan aspekt jag ser som en stor fördel. Att ha möjlighet att granska källkoden själv, eller att veta att den fram för allt har blivit granskad av en gemenskap av utvecklare och entusiaster, ger mig förtroende för verktygets säkerhet och funktionalitet. Det känns bra att veta att jag använder något som inte är en “black box”, utan snarare ett transparent verktyg där jag kan förstå och lita på hur min data hanteras.
Möjlighet till självhostning
Den decentraliserade naturen hos SearxNG är också mycket tilltalande. Möjligheten att självhosta min egen instans av SearxNG ger mig full kontroll över min sökupplevelse och säkerställandet av att min data alltid förblir inom mitt eget ekosystem. Självhostning minskar beroendet av tredjeparter och eliminerar risken för censur eller ofrivillig dataåtkomst av externa aktörer. Den känsla av oberoende och säkerhet är svår att överskatta.
Förbättrad säkerhet
Min oro över cyberbrott och dataintrång är hög, som den borde vara för alla som navigerar i dagens digitala landskap. SearxNG lagrar inte min data eller mina sökningar, vilket innebär att det finns mindre risk att jag faller offer för dataintrång. Detta skapar en säkerhetskudde som är svår att uppnå med många andra sökverktyg, och det är ett skyddsvärde jag inte är villig att ge upp.
Brett spektrum av söktjänster
SearxNG:s förmåga att dra resultat från flera sökmotorer är en funktion jag använder flitigt. Mina sökningar och intresseområden varierar kraftigt, och möjligheten att få en bred bild från flera källor samtidigt är ovärderlig. Jag kan hitta information från nyhetssajter, akademiska databaser och sociala medier allt på en gång, vilket inte bara sparar tid utan också ger mig en djupare förståelse av aktuella ämnen.
Minskar filterbubblor
Att undvika filterbubblor är en annan aspekt där jag ser stor nytta med SearxNG. Allteftersom algoritmer blir mer avancerade tenderar de att fastna i spår som främjar en smal och ibland begränsad syn på världen. Jag uppskattar att SearxNG erbjuder opersonliga sökresultat som inte är skräddarsydda efter min tidigare sökhistorik. Detta ger mig möjlighet att ta del av olika perspektiv och källor, vilket jag anser vara en mer balanserad och utbildad syn på världen omkring mig. Det öppnar upp för nya idéer, bryter ned fördomar och ger mig chansen att lära mig något nytt varje dag.
Internationell och lokal tillgång
Eftersom jag ofta är intresserad av både internationella och lokala frågor, är SearxNG:s flexibilitet att anpassa och justera söktjänster för olika regioner en stor tillgång. Oavsett om jag söker efter specifik lokal information eller jämför globala nyheter, tillåter SearxNG mig att lätt skifta fokus och få tillgång till den information jag behöver, utan att behöva byta plattform.
Gemenskapsbaserad utveckling
Det finns också ett stort värde i att veta att SearxNG utvecklas och förbättras av en engagerad gemenskap. Att vara en del av en rörelse som ståndaktigt främjar integritet och frihet online ger mig mer än bara ett verktyg; det ger mig en känsla av samhörighet med andra som delar mina värderingar kring digitala rättigheter och öppenhet. Denna gemenskap innebär att problemen fixas snabbare och att programvaran ständigt förbättras för att möta användarnas behov.
Utbildningsverktyg
I mitt arbete och personliga intressen spenderar jag mycket tid på att söka och läsa. SearxNG:s samlade sökmöjligheter gör det till ett extremt effektivt verktyg för just sökning. Genom att integrera flera informationskällor kan jag snabbt hitta relevanta artiklar, böcker, nyhetsinlägg och mer, vilket dramatiskt minskar den tid som behövs för att samla in primärdata och fakta. Denna effektivitet förstärker min förmåga att arbeta snabbare och smartare.
Bidrar till en bättre Internetkultur
Genom att använda och stödja verktyg som SearxNG, bidrar jag – om än i liten skala – till att främja en sundare och mer öppen kultur på nätet där individens rättigheter och integritet respekteras. Denna typ av medvetet val inspirerar mig att utforska fler möjligheter att skydda min data och medverka till en positiv förändring på lång sikt. Det är en del av ett större problem som jag är stolt över att kunna tillhöra, och som jag tror kommer leda till mer inkluderande och rättvisa framtida digitala landskap.
Att använda SearxNG har förändrat hur jag interagerar med internet. Dess egenskaper som säkerställer integritet och flexibilitet i kombination med en respekterad gemenskapsförbindelse gör det till mer än bara en teknisk lösning; det är en del av mina värderingar och målet att uppnå mer autonomt och säker interaktion online. För någon som jag, som bryr sig djupt om dessa frågor, är en sökproxy som SearxNG inte bara en fördel, utan en nödvändighet.
Webmin är ett webbaserat systemadministrationsverktyg för Unix-liknande system, inklusive Linux. Det gör det möjligt för användare att hantera sina system via en webbläsare, vilket eliminerar behovet av traditionella kommandoradsverktyg och förenklar processen för systemadministration. Webmin är särskilt populärt för fjärrhantering av servrar, då det erbjuder ett intuitivt grafiskt gränssnitt där administratörer kan utföra en mängd olika uppgifter.
Med Webmin kan användare enkelt konfigurera operativsystemets interna aspekter, såsom användarhantering, diskhantering, tjänster och processer, nätverkskonfiguration och systeminställningar. Det inkluderar också moduler för hantering av tjänster som Apache, DNS, delade filer via Samba, och mycket mer. Dessutom tillåter Webmin användare att hantera paketinstallationer och uppdateringar, vilket hjälper till att hålla systemet uppdaterat och säkert.
Webmin är också modulärt, vilket innebär att det lätt kan utökas med ytterligare moduler för andra tjänster eller egenkonfigurerade applikationer. Det är ett flexibelt och kraftfullt verktyg för både nybörjare och erfarna administratörer, och dess webbgränssnitt gör det tillgängligt för dem som inte är bekanta med avancerade kommandoradsgränssnitt. Sammantaget bidrar Webmin med stor användarvänlighet och effektivitet till systemförvaltning.
Webmin kan vara mycket användbart när du använder en Raspberry Pi, särskilt om du vill administrera systemet på distans. Här är några av de fördelar du kan ha av att använda Webmin på en Raspberry Pi:
Enkel Hantering av systemet: Webmin erbjuder ett användarvänligt gränssnitt för att hantera systeminställningar utan behov av kommandoradsverktyg. Detta kan göra det enklare för användare som inte är bekväma med Linux-kommandon.
Fjärradministration: Eftersom Webmin är webbaserat kan du få åtkomst till och hantera din Raspberry Pi från vilken dator eller enhet som helst med en webbläsare, vilket är särskilt praktiskt om din Raspberry Pi körs utan en direktansluten skärm och tangentbord.
Övervakning av systemresurser: Webmin kan hjälpa dig att övervaka systemresurser som CPU-användning, minnesanvändning och diskaktivitet i realtid.
Tjänsthantering: Du kan enkelt starta, stoppa och konfigurera systemtjänster och daemons via Webmin.
Hantering av användare och behörigheter: Det är enkelt att skapa, ändra och ta bort användarkonton samt hantera behörigheter.
Säkerhetsinställningar: Webmin kan hjälpa till med konfigurering av brandväggsinställningar och andra säkerhetsrelaterade uppgifter.
Uppdatering och pakethantering: Du kan hantera och uppdatera installerade paket och program varifrån Webmin.
Sammanfattningsvis gör Webmin det enklare att hantera din Raspberry Pi på ett effektivt sätt, speciellt för dem som föredrar ett grafiskt användargränssnitt framför kommandoradsverktyg.
För att installera Webmin på en Raspberry Pi behöver du följa några steg för att säkerställa att allt är korrekt konfigurerat. Här är en steg-för-steg-guide:
Förbered systemet:
Innan du börjar, se till att ditt system är uppdaterat. Öppna terminalen och kör följande kommandon:bashsudo apt update sudo apt upgrade
Installera nödvändiga paket:
Webmin kräver några beroenden. Installera dessa med kommandot:bashsudo apt install software-properties-common apt-transport-https wget
Lägg till Webmins repositorium till listan över paketkällor:bashsudo add-apt-repository "deb http://download.webmin.com/download/repository sarge contrib"
När installationen är klar kan du komma åt Webmin genom att öppna din webbläsare och gå till följande URL:texthttps://<din_Raspberry_Pi_IP-adress>:10000
Logga in med ditt användarnamn och lösenord för Raspberry Pi (ofta pi och dess lösenord).
Konfiguration av brandvägg (om nödvändigt):
Om du har en brandvägg aktiverad, se till att port 10000 är öppen för att tillåta åtkomst till Webmin.
Nu är Webmin installerad och redo att användas på din Raspberry Pi 😉
Vad är Unbound då? Jo, Unbound är en DNS-resolver som ofta används för att förbättra DNS-prestanda och säkerhet. Den kan också fungera som en reverse proxy i vissa scenarier.
En reverse proxy fungerar som en mellanhand för klienter som begär resurser från servrar. När en klient gör en begäran till en server via en reverse proxy, skickar proxy-servern begäran till en eller flera backend-servrar, hämtar svaret och returnerar det till klienten. Detta kan ge flera fördelar:
Lastbalansering: Reverse proxy kan fördela trafik mellan flera servrar för att optimera prestanda och tillgänglighet.
Säkerhet: Genom att dölja backend-serverars identiteter och skydda dem mot direkt åtkomst kan reverse proxy skydda mot attacker.
Caching: Den kan cacha svar från backend-servrar, vilket minskar belastningen på dem och snabbar upp svarstider för klienter.
SSL-offloading: En reverse proxy kan hantera SSL-tillämpningar, vilket avlastar backend-servrar och förenklar hantering av certifikat.
Centraliserad åtkomstkontroll: Du kan implementera säkerhetsåtgärder och autentisering på proxy-nivå, vilket gör det enklare att hantera.
Unbound är alltså som en reverse DNS-proxy för att förbättra prestanda, säkerhet och hantering av trafik mellan klienter och servrar.
Vad innebär det då om du t.ex. kör Pi-Hole som DNS? Om du anger t.ex. Google, OpenDNS eller någon av de andra DNS:erna som ligger fördefinierade i Pi-Hole så kommer de att kunna se vilka domänsökningar dina Pi-Hole:s blir använda för och kan logga dessa från din IP-adress. Kanske inte riktigt det du önskade av din ”privatisering” med Pi-Hole. Du vill ju att rot-DNS:erna på Internet skall tillfrågas, dessa kommer aldrig att ”intressera” sig för vad du gör… 😉 Då kan du med fördel installera Unbound på var och en av dina Pi-Hole-maskiner eller i en större uppsättning kan du ju dra igång två separata maskiner med Unbound som då kan få vara redundanta för varandra. Jag har valt att installera Unbound på var och en av de tre Pi-Hole:s jag har i mitt hemmanät.
På mina Raspberry Pi ser det ut såhär.
sudo apt install unbound -y
Efter en lyckad installation, editera (skapa) följande fil.
Efter detta, gå in i Pi-Hole:s konfiguration under Settings, sedan till DNS-fliken. Ta bort alla valda ”Upstream DNS Servers”, ange sedan en egen och skriv in ”127.0.0.1#5335” i rutan för ”Cusctom 1 (IPv4)”, spara konfigurationen.
Tittar du nu i Query Log så kommer du att se att localhost svarar på dina upstream-förfrågningar.
Att ha en händelselogg kan vara bra, förutsatt då att man fyller i den så snart man gör en ändring i sitt nätverk, på sina datorer, i sina trådlösa accesspunkter, ja … för allt. Varför då kanske du tänker? Jo, såhär …
Vi har ett gästnät i huset och i gästrummet över garaget, det hanteras av två accesspunkter varav den ena också agerar router vilken NAT:ar mellan gästnätets IP och en IP-adress som i sin tur har kontakt med en, för gästnätet, egen router som ansluter det hela till Internet, inget konstigt.
I början av vår semester fick vi en digital fotoram av några släktingar, denna behöver inget annat än en Internetförfindelse varför den lades upp via det trådlösa gästnätet, allt bra … utom att den då och då indikerade att den var ”offline” vilket var lite märkligt, inget som spelade någon roll kanske men det gnagde …
… och så var semestern slut, arbetsdatorn som också ligger på det trådlösa gästnätet startades upp och redan under första Teamsmötet hade jag problem med nedkopplingar, hackande ljud och andra märkliga fenomen …
Min arbetstelefon, som naturligtvis också ligger på gästnätet, visade på från 10-40 Mbps i Speedtest vilket är jättedåligt, ibland blev det helt 0 under korta perioder … och så kan man ju inte ha det. Kollade runt i WiFi-delen, inget konstigt, kollade routern mot Internet, inget konstigt, kollade min arbetsdator, inget konstigt och det skulle ju ändå inte förklarat varför telefonen betedde sig märkligt, nej, inget konstigt någonstans …
Jag för lite logg över saker jag ändrar i nätet och under spannet som vi pratar om, cirka fem veckor under semestern och första arbetsveckan, så hann det hända en hel del. Tog bort lite regelverk ur brandväggen på utgående router mot Internet, ingen skillnad. Ändrade tillbaka en mindre förändring jag gjort i WiFi-nätet, ingen förändring. Kom till sist fram till att alldeles i början av semestern adderade jag ett sekundärt IP-nät i den utgående routern mot Internet, på routern insida … men att ta bort detta krävde lite mer ändringar på insidan då det sekundära IP-nätet faktiskt användes men då detta var klart kunde jag ta bort det från den utgående routern och BAM, plötsligt var allt bra, flera hundra Mbps i överföringshastighet och en snygg och prydligt fungerande Internet-anslutning. Varför, ja det får jag fortsätta utreda men nu fungerar vårt gästnätverk igen, allt är frid och fröjd 😉 …
… och detta tack vare min logg över ändringar och när de gjorts … 🙂
Först och främst, detta handlar inte om hur eller vad du skall installera, jag förutsätter att du har paketen iptables samt iptables-persistent i din utrustning så att du kan texteditera /etc/iptables/rules.v4 eller .v6 för att göra ändringar 😉 …
Att lära sig, och inte minst förstå, IPTables är viktigt om du kör Linux, det är där du enklast beskriver vilka regler som skall gälla till och från din maskin samt även hur trafik som går genom den (routas) hanteras, vad som skall tillåtas, stoppas, adressöversättas (NAT) och så vidare …
IPtables består, lite grovt förklarat, av fem huvuddelar. Det är ”prerouting”, ”forward” och ”postrouting” för trafik som skall skickas (routas) genom din utrustning samt ”input” och ”output” istället för ”forward” om trafiken skall till någon av din utrustnings interna processer, t.ex. en webbserever.
Innan vi tar oss in i exemplen så tittar vi först på IPTables olika byggstenar.
Prerouting
Första steget när IP-paketen kommer in i IPTablesprocessen är vad som kallas Prerouting och här kan man t.ex. styra destinations-NAT, omdirigeringar med mera. Tänk bara på att om du styr om från en destinations-IP i det inkommande paketet till delprocessen till en annan destinations-IP eller kanske IP-port så är det denna man sedan får ange i påföljande delsteg … Klurigt kan det bli … 😉
Forward
I Forwarddelsteget arbetar man med vilken IP-trafik som skall ges lov att prata med andra IP-nät eller IP-adresser innan paketet når operativsystemets egen routingprocess, dvs. att själva omdirigeringen (routingen) hanteras inte över huvud taget av IPTables.
Postrouting
Efter att operativsystemets routingprocess hanterat eventuella vägval för IP-paketet så tar åter IPTables hand om det och nu hanteras det i delsteget som heter Postrouting, det är bland annat här man adressöversätter från intern privat IP-adress till en publik IP-adress på routern utsida, t.ex. mot Internet, så kallad SNAT (Source NAT).
Input
För hantering av inkommande IP-trafik mot den egna utrustningens interna processer använder man ett delsteg som heter Input och detta delsteg ligger efter Prerouting och före de interna processerna, det kan vara webbserver, SSH och andra tjänster som ligger aktiva i utrustningen och som väntar på anrop.
Output
För hantering av IP-trafik från den egna enhetens interna processer mot andra enheters IP-adresser så använder man delsteget Output.
Filter och NAT
Man delar konfigurationsfilen för iptables-persistent i olika grupper, dels för ”filter” och dels för ”nat”.
Exempel?
Ett exempel på en /etc/iptables/rules.v4 kan se ut såhär.
*filter
# Om inget annat sägs, kasta all trafik för Input och för Forward men tillåt allt i Output.
:INPUT DROP [0:0] :FORWARD DROP [0:0] :OUTPUT ACCEPT [0:0]
# Tillåt att all trafik som genereras från interna processer tillåts tillbaka in.
-A INPUT -m conntrack –ctstate RELATED,ESTABLISHED -j ACCEPT
# Tillåt SSH-trafik på IP-port 22 mot egna enheten.
# Kasta all trafik från internt IP-nät 192.168.123.0/24 mot annat internt IP-nät 192.168.100.0/23 oavsett protokolltyp
-A FORWARD -s 192.168.123.0/24 -d 192.168.100.0/23 -j DROP
# Tillåt att all trafik från interna IP-nät 192.168.100.0/23 och 192.168.123.0/24 mot Internet tillåts passera genom enheten, samt att returtrafik tillbaka från Internet skall tillåtas passera mot de interna IP-näten.
# I Postrouting, lägg in en source-NAT mot Internet för båda Interna IP-näten 192.168.100.0/23 samt 192.168.123.0/24. Istället för att ange en IP-adress på utsidan som ISP kan ändra, använd utsidans IP-adress genom interfacenamn, i det här fallet ”eth1”.
-A POSTROUTING -s 192.168.100.0/23 -o eth1 -j MASQUERADE -A POSTROUTING -s 192.168.123.0/24 -o eth1 -j MASQUERADE
Många är väl medvetna om att något märkligt händer då vi använder Google, Bing eller andra söktjänster på Internet, inte bara blir det svårt att sålla bland vad som är betalda annonser, vad som är betald placering och vad som är faktiska sökresultat utan dessutom börjar andra sidor som innehåller annonser visa massor av tips och förslag på det vi precis sökt på eller likanade produkter … När du använder söktjänster, utan ”kostnad”, så är det du som är produkten, det som säljs till andra är information om dig och dina, i det här fallet, sökningar på Internet.
Hur kommer du runt detta då? In kommer till exempel SearXNG!
Provsök gärna nedan och se hur dina sökresultat visas, klickar du på sökresultaten fungerar inte detta alltid som det skall … 😉 Vill du istället testa och använda sökproxyn fullt ut, gå till https://search.nordh.tech/ …
Det som är trevligt med SearXNG är att den lämnar ingen information om dig, din webbläsare eller något annat till de sökmotorer den hämtar information från. Sökmotorerna upplever var sökning du gör som om den kommer från en ny dators webbläsare, inget gammalt finns med och dessutom, resultaten som visas för dig är helt rena från annonser eller ”placerat” material. Inte minst det sistnämnda lär man sig snabbt att uppskatta …
SearXNG kan du intingen installera direkt i en dator eller via Docker, smaken är som baken och jag föredrar en ren installation. I mitt fall grävdes ytterligare en Raspberry Pi 4 med 8 GB minne fram ur skrivbordslådan. Kanske inget man tillhandahåller som en tjänst på Internet för allmänheten men för eget hemmabruk duger en Raspberry Pi alldeles utmärkt. Dessutom, med SearXNG, så får man möjligheten att välja resultat från ett flertal söktjänster på Internet, mer om detta längre fram, efter installationen … 😉
Det finns en uppsjö av installationsanvisningar på Internet, det är bara att söka efter dem men … detta är en lite speciell installation, väldigt få fungerar rakt av och att debugga dessa skript är inte det enklaste. Så jag skrev mitt eget lilla recept.
Installationsanvisning 202404 …
Ett tips, läs först genom samtliga installationspunkter och gör dig bekväm med installationen INNAN du börjar, det är många punkter men jag har, för att minska risken för att missa någon, valt att skriva dem en och en.
Uppdatera ditt OS.
sudo apt update
sudo apt ugrade
Du kommer att köra SerXNG under en annan användare så sätt upp denna.
… och ange lösenordet för användare ”Searx”. Att köra SearXNG under en annan användare än root/admin är ur säkerhetssynpunkt smart, det kan också vara fördelaktigt om man installerar i en virtuell miljö.
Logga in med den nya användaren för att fortsätta installationen.
su searx
… och ange lösenordet för ”searx”.
Byt nu katalog till /home/searx/
Som ”searx”, installera nu följande applikationer och beroenden, jag brukar ta dem ett i taget för full kontroll.
Jag startar med åtkomst till mjukvaruplattformen Github.
sudo apt install git
Sedan fortsätter jag med webbservern, i det här installationsexemplet NginX.
sudo apt install nginx
Brandväggen IPtables är redan förinstallerad men vill man vara säker, så visst …
sudo apt install iptables
För att på enklaste sätt göra det möjligt att spara sina brandväggsregler, och att ladda dem efter en om- eller uppstart så kan man använda sig av verktyget IPtables Persistent.
sudo apt install iptables-persistent
Vidare på ämnet säkerhet, Let’s Encrypt har en hanterare för sina gratiscertifikat så den installerar vi vilket enkelt ger oss SSL-certifikat för vår webbtjänst.
sudo apt install certbot
sudo apt install python3-certbot-nginx
Nu, när vi har alla applikationer SearXNG behöver installerade, kan påbörja lite grundkonfiguration.
Jag börjar med brandväggsregler för webbservern, ersätt <ditt ip-nät> med det som gäller för ditt nätverk.
Starta nu installationsskriptet med följande kommando.
sudo -H ./utils/searxng.sh install all
Hela installationsprocessen är till stora delar helt automagisk men du kan behöva svara ”Y” då skriptet efterfrågar svar på till exempel allt skall installeras och så vidare.
Som du sett, denna anvisning bygger på webbservern NginX för leverans av data till webbläsarna …
Då hela installationsskriptet körts utan några felmeddelanden så kan vi fortsätta till nästa dela av uppsättningen.
Konfigurera NginX
Skapa en ny konfigurationsfil för NginX under /etc/nginx/sites-available/searxng
include uwsgi_params;
uwsgi_param HTTP_HOST $host;
uwsgi_param HTTP_CONNECTION $http_connection;
# see flaskfix.py
uwsgi_param HTTP_X_SCHEME $scheme;
uwsgi_param HTTP_X_SCRIPT_NAME /searxng;
# see limiter.py
uwsgi_param HTTP_X_REAL_IP $remote_addr;
uwsgi_param HTTP_X_FORWARDED_FOR $proxy_add_x_forwarded_for;
} }
Efter ”server_name” anger du det fulla FQDN för just din server, använd det namn som medger åtkomst från Internet så att du kan skapa ett publikt och verifierat SSL-ceritifikat i följande steg.
Efter ”location” anger du om din sökmotor skall vara åtkomlig direkt i rotten av ditt FQDN eller så anger du en subdomän, till exempel ”location /searxng”. Jag gillar att bara behöva skriva URL:en utan subdomän/sökväg.
Då detta är gjort, ta bort ”location” i den NginX-fil du har under /etc/nginx/sites-enabled/.
För att sätta upp ett certifikat för din nya SearXNG-server, se till att webbservern är nåbar från Internet på port 80 och 443, hur just det görs i din miljö överlåter jag till dig … 😉
Då åtkomst till webbservern från Internet är klart kör du Let’s Encrypts skript.
certbot –nginx yetanothersearxserver.xyz
Här anger du återigen ditt FQDN för just din server.
Du behöver också sätta upp en symlink för NginX mot serverns ”sites-enabled”-mapp.
Då detta är klart, starta om webbservern och SearXNG.
sudo systemctl reload nginx sudo service uwsgi restart searxng
Nu kan du logga ut som användare ”searx”, du är nu klar …
exit
Vill du enbart ha söktjänsten tillgänglig internt, stäng åtkomsten till servern i din Internetrouter, brandvägg eller vad du nu använder …
… och grattis, du har nu en egen söktjänst!
Första gången … 😉
När du nu öppnar upp din söktjänst för första gången, passa på att klicka på kugghjulet uppe till höger på söksidan, jag föreslår att du väljer att söka sidor på alla språk om du till exempel söker mycket med engelska ord. Låter du sökskriptet själv avgöra vilket språk du använder får du ofta sökfel om inte svenska hemsidor innehåller de engelska sökord du anger. Välj också vilka sökmotorer du föredrar att hämta information från …
Dina inställningar sparas lokalt i en liten cookie lokalt men/och är inget som delas med någon annan …
Som sagt, en lite besvärlig installation kanske men det ger dig ett fantastiskt verktyg som inte gör din information eller dina sökord säljbara till andra parter på Internet.
Håll din installation uppdaterad
Det gör du som användare ”searx” …
su searx
Ange lösenordet du gav denna användare.
Gå till SearXNG:s mapp.
cd searxng
Skriv sedan följande för att uppdatera din installation.
sudo -H ./utils/searxng.sh instance update
Då uppdateringsskriptet är klart kan du starta om NginX och SearXNG.
sudo systemctl reload nginx sudo service uwsgi restart searxng
Logga ut användare ”searx”.
exit
Sedan kör det vanliga …
sudo apt update
sudo apt upgrade
Nu tror jag att jag fått med allt som är värt att skriva om, hoppas du har glädje av din nya säkra söktjänst.
Hur övervakar du ditt nät? Hur vet du vem som lyckas ansluta mot ditt nät, fram för allt via wifi? Hur vet du om dina enheter fungerar som de skall, dygnet runt, alltid?
De flesta normalanvändare i sina hem har ingen aning, inte ens de som till vardags kanske arbetar inom IT-branschen, kanske inte ens de som arbetar med IT-säkerhet … De kommer hem på kvällen, startar och ansluter sina personliga laptops, datorer, plattor, ja … allt vad som finns i hemmet. Utan att veta vad som mer ansluter rent av? Jag tror, utan att egentligen veta, att de flesta egentligen har väldigt dålig koll på sina hemnätverk. Kanske har man någon tjänst igång i sin Internet-router för att begränsa sina hormonstinna tonåringar för att titta på den värsta porren men det kommer de nog runt ändå … 😉
Hur håller jag koll då? Nja, kanske bättre än de flesta …
Två wifi
Minst två wifi-nät till att börja med! Man låter inte vänner och bekanta ansluta sig mot samma wifi-nät som man själv har sina enheter i? Varför då tänker du, det blir ju enkelt eller hur? Nja, men du vet inte vad deras enheter gör i ditt nät, vilka applikationer deras enheter kör, du vet kanske inte ens hur ärliga dina vänner och bekanta är, eller hur väl de sköter om sin egen IT-säkerhet i form av antivirus, de har kanske lyckats få spionprogramvara i sin enhet, den enhet du så enkelt och fritt från fördomar tillåter att ansluta till ditt eget nät. Nja, inte för mig! Här har vi ett internt wifi med eget SSID för internt bruk och ett wifi med sitt SSID för okända enheter, och dit hör också arbetsdatorer, arbetstelefoner och ja, allt som vi inte själva har koll på. Wifi är ju dessutom lite speciellt då man inte behöver fysisk tillgång till nätet utan kan sitta hos grannen och försöka hacka sig in om man vill.
Ok, så minst två skilda wifi, kanske tre om man vill skilja bort även alla IoT-saker, dvs. smarta strömpluggar, nätverksanslutna värmepannor, ja allt som inte är telefon, platta eller dator i din egen ägo. Här har jag personligen gett upp lite, det är ett väldans pill med detta om man använder Apple-grejor, Apple Homekit och så vidare. Finns säkert någon som tycker annorlunda men som sagt, här gav jag upp så jag kör faktiskt IoT tillsammans med våra övriga nätverksanslutna datorer, plattor och telefoner.
Pi.Alert
Hur ser jag då vad som är anslutet till vårt nätverk? Jo, både i vårt interna nät såväl som i vårt gästnät kör jag Pi.Alert, har två Raspberry Pi, en 4 och en liten Zero 2W, som hela tiden ligger och ARP-skannar både det interna nätet samt vårt gästnät med en minuts upplösning. Det innebär att vi efter en minut direkt ser om någon varit, eller är, ansluten, vilken MAC-adress vederbörande har, vilken IP den tilldelats samt oftast vilken tillverkare som ligger bakom MAC-adressen. Skulle det vara en okänd enhet så blockerar jag direkt denna MAC-adress i det trådlösa nätverk den anslutit mot, kan vara i gästnät eller internt nät.
Pi.Alert finns i lite olika smaker, man kan installera det direkt i t.ex. en Raspberry Pi men det finns också förpackade Docker-installationer, välj den som passar dig. Jag använde två stycken Pi’s som jag hade liggande.
Pi-Hole
Jag har redan tidigare beskrivit min Pi-Hole-uppsättning och allt där stod stämmer för mig fortfarande idag, dock har jag kompletterat med ytterligare en, för ren avlastning, som ”pratglada” övervakningssystem kan använda för eget bruk.
Våra två Pi-Hole agerar dels filtrerande DNS-servrar får vi blockerar anrop mot siter som är ”kända” för reklam, aktivitetsspårning, skadlig kod med mera. Den lista som medföljer från början är oftast bra nog för de flesta men som sagt, det går att lägga till fler beroende på vad man mer önskar ta bort. Vi kör också ett 20-tal specifika domän- och regular expression-filter för att slippa ytterligare sajter, bl.a. med spårning och reklam … och vips försvann. all reklam från TV4 på våra Apple-TV (ej live), fungerar dock inte om du tittar via webbläsare … 😉
Våra Pi-Hole’s agerar också DHCP-servrar och delar ut IP-adresser i varsin del av ett /23-nät vilket omfattar 512 Ip-adresser. På så sätt kan de agera fullständig backup för varandra om så behövs.
Uptime Kuma
Hur vet jag då att våra olika enheter är uppe och fungerar alltid, hela tiden, alla årets dagar då?
Det finns en uppsjö av övervakningsvarktyg, alla med sina fördelar och nackdelar, det senare oftast i form av väldigt komplex uppsättning och konfiguration, man måste verkligen vilja få det att fungera liksom, tar massor av tid, något jag inte känner att jag har.
Efter mycket letande och efter måååånga testinstallationer fastnade jag för ett enkelt och lättkonfigurerat gratisverktyg som heter Uptime Kuma. Detta finns, precis som allt annat, i flera olika smaker, för Docker eller för ”bare metal”, det senare föll mig i smaken och ytterligare en Raspberry Pi 4 grävdes fram ur lådan. I samma Pi 4 installerade jag ytterligare en Pi-Hole för att avlasta de två som alla andra enheter använder, insåg att Uptime Kuma, med pollning var 20:e sekund, kör ca 100.000 DNS-förfrågningar per dygn. Med hjälp av en Pi-Hole kunde jag cache det stora flertalet av dessa och med en regular expression kunde alla, för mig onödiga, IPv6-förfrågningar helt blockeras.
Uptime Kuma kan också konfigureras för att skicka larm via olika tjänster samt via epost.
Min sammanfattning
Är detta för alla då? Nej, tyvärr inte men det kanske borde vara det? Var går gränsen för det egenansvar, och även legalt och juridiskt ansvar, man har som t.ex. förälder i ett hem med sjövilda tonåringar? Hur skall man förhålla sig till det faktum att man utvecklat Internatåtkomst till ett väldigt farligt verktyg om det hamnar i fel händer, jag kan likna det vid att en jägare lägger ut alla sina vapen på farstun, skarpladdade, och så hoppas man att grinden i staketet håller alla illasinnade borta från dem. Huhh …
Så för oss innebär det
Separata wifi-nät, minst två, där gästanslutningar inte blandas med de egna enheterna.
Upptäck okända, eller kända för den delen, anslutningar mot ditt eller dina nätverk.
Minska åtkomst till oönskade sajter med reklam, skadlig kod, spårning och ja, vad du vill med hjälp av Pi-Hole.
Monitorera dina lokala enheter som alltid skall vara igång med Uptime Kuma.
Jag säger bara Tailscale! Det är ju lösningen på alla världens utmaningar! I alla fall i min närhet, sedan förstår jag om det inte är lösningen på krigen i världen eller svält …
…men för mig var det i alla fall en riktigt bra grej. I alla fall om man, som jag, har enheter man vill komma åt oavsett vilket del av världen man befinner sig i eller vilket nät man ansluter sin dator, platta eller telefon mot.
Vad är då Tailscale egentligen?
Egentligen är det samma sak som man själv kan sätta upp med Wireguard VPN i botten för att säkra sina kommunikationskanaler, ”end to end”. Ovanpå det anpassar man brandväggsöppningar med iptables, man hanterar DNS för sitt separata nät … och så vidare. Eller så skapar man ett konto hos Tailscale, man installerar en liten klientapplikation i sin enhet som antingen kan vara baserad på OS så som Linux, Mac, Windows, iOS, eller Android. Då applikationen startats så sköter den allt och ansluter respektive enhet, förutsatt att den är ansluten mot Internet, mot Tailscales molntjänst. Där får respektive enhet man ansluter en 100…..-adress, och DNS-namn i den nya domänen du tilldelats, och host routing mot de andra enheterna som anslutits mot samma konto. Super smart och egentligen ganska enkelt om man bryter ned totallösningen i sina delkomponenter. Smart.
Vill man sedan göra det ännu smartare så kan man, för de enheter man inte kan, får eller vill installera själva Tailscaleapplikationen på istället välja att routa samman det nya 100.-nätet med det egentliga IP-nätet enheterna sitter i med sina riktiga IP-adresser. Låt en av dina enheter, med Tailscale installerad, annonsera ut routen för det riktiga IP-nätet och sedan agerar den proxy för trafiken dit. Välj gärna en enhet med lite kapacitet, framför allt vad gäller genomströmning av data på nätverksnivån. Fungerar klockrent, kräver ett kommando på enheten med Tailscaleapplikationen och ett klick i dina inställningar via webben. Klockrent!
Vad kan man mer hitta på? Tja, du kan ju enkelt (allt med Tailscale är enkelt!) peka ut en av sina Tailscaleanslutna enheter som ”exit node” vilket innabär att du, var du än är i världen, kan låta din nätverkstrafik gå krypterade till din ”exit node”-enhet och sedan ut mot Internet via denna enhet där denna då agerar proxy och det ser ut som om du kommer från ditt ”hemmanät”. Har du t.ex. en server hos Akamai i Chicago kan du enkelt installera Tailscale på denna, ange den som ”exit node” och sedan kan du i dina andra Tailscale-anslutna enheter välja, om du vill, att använda denna väg ut och all trafik kommer då att komma ut på Internet via en IP-adress registrerad i Chicago. Ett kommando och ett klick, det bara fungerar.
Inte ofta jag blir helt lyrisk över saker men denna lösning, denna sammansättning över annars ganska pilliga lösningar, den tilltalar mig mycket!
Och vet du vad? Den är helt fri från kostnader upp till, i skrivande stund, 100 (hundra!) enheter anslutna med Tailscaleapplikationen installerad. Och javisst, upp till tre användare kan dela på åtkomsten till dessa enheter …
Dessutom kan du med ACL:er styra vem och vilka som skall få göra vad, du kan låta Tailscale hantera all SSH-inloggning mot dina enheter och mycket mer.
Nu skall jag fortsätta sätta upp mitt nya VPN-moln … 😉
Den 25 maj 2018 började dataskyddsförordningen (GDPR) att gälla i Sverige och övriga EU.
Det innebär bland annat att inget företag eller organisation får spara personuppgifter som inte behövs för att leverera det du bett om och att du har rätt att ”bli glömd” så snart du ber om det.
För din kontakt med Nordh.Tech innebär det inte så mycket.
Vi sparar en kaka (cookie) vilket innebär en liten textfil med information om vad du gjort när du surfar hos oss, vi gör det för att kunna få statistik rörande vad du gjort när du besöker oss och för att vi skall kunna ge dig nytt innehåll och inte till exempel behöva fråga dig var gång du besöker oss om du godkänner våra GDPR-villkor eller att det sparas en ”kaka” på din dator.
Vi sparar också din epostadress för att kunna skicka dig vårt nyhetsbrev eller hantera din inloggning i vårt forum, om du bett om det vill säga. Då du prenumererar på nyhetsbrevet eller begär inloggning till vårt forum anger du också ditt förnamn eller inloggningsnamn men här kan du ange vilket namn som helst. Vissa anger även efternamn men dessa raderas så att endast förnamnet kommer att användas i hälsningsfrasen i varje nyhetsbrev.
Hoppas detta gör att du kan känna dig trygg med ditt besök hos mig här på Internet.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.
Cookie Policy
GDPR och kakor (cookies)
Den 25 maj 2018 började dataskyddsförordningen (GDPR) att gälla i Sverige och övriga EU.
Det innebär bland annat att inget företag eller organisation får spara personuppgifter som inte behövs för att leverera det du bett om och att du har rätt att ”bli glömd” så snart du ber om det.
För din kontakt med Nordh.Tech innebär det inte så mycket.
Vi sparar en kaka (cookie) vilket innebär en liten textfil med information om vad du gjort när du surfar hos oss, vi gör det för att kunna få statistik rörande vad du gjort när du besöker oss och för att vi skall kunna ge dig nytt innehåll och inte till exempel behöva fråga dig var gång du besöker oss om du godkänner våra GDPR-villkor eller att det sparas en ”kaka” på din dator.
Vi sparar också din epostadress för att kunna skicka dig vårt nyhetsbrev eller hantera din inloggning i vårt forum, om du bett om det vill säga. Då du prenumererar på nyhetsbrevet eller begär inloggning till vårt forum anger du också ditt förnamn eller inloggningsnamn men här kan du ange vilket namn som helst. Vissa anger även efternamn men dessa raderas så att endast förnamnet kommer att användas i hälsningsfrasen i varje nyhetsbrev.
Hoppas detta gör att du kan känna dig trygg med ditt besök hos mig här på Internet.