Så var det dags för ytterligare en liten favorit i rackskåpet, en RB4011iGS+RM. Stort grattis till MikroTik, ytterligare en kryptisk modellbeteckning … som troligen betyder RouterBoard 4000-serien med 11 portar … och sedan S+ för SFP+-uttaget men sedan, ja …
… jag vet inte men ett rätt trevlig liten router är det och som vanligt med MikroTik och deras RouterOS, den har alla(!) funktioner och möjligheter du kan önska dig MEN du måste kolla lite hur hårdvaran och routerns olika beståndsdelar pratar med varandra för att förstå vilka flaskhalsar som finns och hur du bäst utnyttjar din router, detta gäller för alla MikroTiks produkter, ladda ned blockschemat från deras hemsida innan(!) du väljer modell …
Just denna RB4011 använder jag endast för trafik initierad från Internet mot någon av mina servrar som är åtkomliga publikt och i mitt fall är Internetkopplingen ansluten till Eth1, jag har en redundant anslutning på Eth6 och sedan sitter servrarna anslutna via en switch som sitter ansluten mot SFP+1. Respektive Ethernetport är sedan konfigurerad via varsin brygga, all hantering mellan bryggorna och vlanen på SFP+1-porten sker via CPU:n och med Fasttrack konfigurerat på rätt ställe så balastas CPU:n ca 20-22% per Gbps som routas vilket är helt ok, då jobbar jag mycket med DDoS-skydd och långa dynamiska IP-adresslistor i brandväggen. Men som syns i blockschemat, används ethernetportarna så har man två stycken 2.5 Gbps-kanaler att ta hänsyn till i sin design och uppsättning.
Att få såhär mycket router, med all denna funktionalitet och prestanda, för ca 2.500 kronor känns svårslaget, jag är verkligen jättenöjd. Är man via vid Cisco och deras priser, inte minst för alla olika licensalternativ man kan behöva för att aktivera olika funktioner så måste detta vara rena klippet!!!
Ha det gott därute,
//Anders
…
Tillägg den 15/12 2024 …
Ibland är man litta dum i hoed 😉 , på ren skånska alltså, satt och felsökte varför inte ”hardware offloading” ville fungera och bli aktiverat på SFP+-porten … och så glömde jag hur arkitekturen för RB4011 ser ut, finns ju inget gemensamt switchchip för SFP+-porten med någon av de andra portarna så hardware offloading kan ju inte fungera.
Bara som en påminnelse om att MikroTiks blockschema är jätteviktiga att använda och förstå!
Ja du, namnsättningen på MikroTik-produkter är ibland lite svår att förstå men samtidigt så säger den ändå en del… 🙂
MikroTik RB5009UG+S+ innebär, enligt MikroTiks sätt att se på det, ett RouterBoardi 5000-serien, 9 portar totalt, en USB-port, Gigabit-portar + att den ena porten är SFP+ … enkelt eller hur? 😉
Även formfaktorn verkar till att börja med lite underlig, ända till att man inser att man kan montera fyra stycken RB5009:or i en RU i ett 19″-rack. Jäklar vilket litet muskelpaket det vore … Jag klarar mig i alla fall med en …
Jag använder SFP+-porten till att ansluta min CSS326-switch via 10 Gbps i trunkat läge, här kör jag sedan ett antal Vlan vilka dels routas i 5009:an, dels ges de tillgång till Internet via masquerade NAT mot Gbps-porten som ansluter till Internet. Router man i Gbps-hastighet mot Internet, och passerar lite regelverk i den inbyggda brandväggen toppar belastningen på ca 15% så rent teoretiskt kanske routingprocessen, som sköts av mjukvara och i processorn, kan hantera 6-10 Gbps vilket är mer än tillräckligt för de flesta av oss.
Behöver man däremot L2-kommunikation, ja då kan man låta switch-chippet hantera det och då kan 5009:an hantera ytterligare några Gbps, i alla fall enligt den dokumentation jag hittar, önskar jag kunde testa själv men det kan jag inte. Speciellt som detta numera är min huvudrouter i huset och familjen är beroende av den alla våra vakna timmar på dygnet …
Som du ser i blockschemat ovan så finns egentligen inga direkta flaskhalsar inbyggda utom då själva processorn, men någonstans får man acceptera en tradeoff då hela härligheten med alla funktioner och ett fullt RouterOS kostar runt 2700:- inklusive moms.
För de som önskar redundant strömmatning så finns det tre olika möjligheter, dels den medföljande nätadaptern, dels via en strömmatning på sidan av enheten och dels via en PoE-in ethernet, detta borde tillfredsställa även den mest oroliga person i världen.
RB5009 kan också köra 2.5 Gbps, men bara på en port, port 1.
Vad mer? Jo, helt tyst är den, helt … då den saknar fläkt, istället är den försedd men en ordentlig kylfläns och tempen ligger runt 15-17 grader över omgivningstemperaturen i ett välventilerat utrymme, helt ok.
RouterOS 7, som är en helt egen historia egentligen, är som vanligt fullt med alla möjligheter, det har en väldigt avancerad brandvägg, det kör alla vanliga routingprotokoll så som RIP i olika versioner, OSPF, BGP med flera, hur är det man säger, -”Allt du kan göra i en Cisco kan du göra i RouterOS ….”. Hur som helst, jag saknar inget!
Jag har uppdaterat vårt nätverk här hemma, dels med en ny 24-portars switch från MikroTik, och dels en ny router, också den från MikroTik, men mer om den i en annan artikel … 😉
Switchen är den enklaste 24-portarsmodellen, en CSS326-24G-2S+, vilken enbart innehåller ett rent switching-OS vilket Mikrotik kallar SwOS, versionen jag kör är den senaste vilket just nu är 2.17. Utöver de 24 10/100/1000Mbps-portarna så har den också plats för 2 stycken SFP+-moduler för upp till 10Gbps, och jag kör en modell, också den från MikroTik, som består av en färdig kopparkabel med påbyggda 10Gbps-moduler vilken sköter kommunikation mellan switch och router. Switchen är fläktlös och därmed helt tyst, i början tyckte jag att temperaturen på runt 60 grader var i överkant men det verkar vara helt normalt om man söker runt lite på Internätet.
MikroTik CSS326 erbjuder också en robust design, den är kompakt och utformad för rackmontering vilket gör den lätt att montera i ditt 19″-rack, den kräver inte mycket djup. Den kan också stå på en hylla eller liknande.
Att använda den kan vara enkelt, bara plugga den medföljande strömadaptern och den är igång. Vill du däremot utnyttja lite vad switchen verkligen kan så har den det mesta tillgängligt i sitt ganska välordnade webbgränssnitt, allt från Vlan-hantering till avancerad Spanningtree-hantering, all möjlig statistik, SNMP-stöd, accesslistor för att styra management och allt man kan önska sig av en avancerad switch, helt ok för en switch som kostar strax över 2000 kr med frakt och inklusive moms. Detta är en produkt skapad av nätverkstekniker för nätverkstekniker, det kan annars lätt bli att man går helt vilse i konfigurationsmöjligheterna … Just sayin’ …
Prestanda då kanske du undrar? Helt ok, jag har inte lyckats stressa den än, inte alls, och vad jag förstår så klarar bakplanet och switchchippet runt 48Gbps (på något ställe läste jag 33 Gbps, också det ok …), långt mycket mer än vad portarna tillsammans skall kunna belasta den med.
Motsvarande modell finns också om du vill ha avancerade routingfunktioner i samma utrustning men tänk på att switchchippet då pratar med processorn över en begränsad intern länk och dessutom är processorn inte gjord för högre hastigheter så … jag är av den gamla skolan, en funktion per burk och i detta fallet är det snabb switching som gäller.
När det gäller Mikrotiks namnsättning är det ibland lätt att se vilken baskunktionalitet din switch har, heter den CSS (Cloud Smart Switch) så är det en ren L2-utrustning medan om den heter CRS (Cloud Router Switch) så har den också möjlighet till L3 och lite uppåt i OSI-modellen med viss begränsning då all L3 verkar ske i mjukvara med en ibland inte allt för snabb processor.
Tack för mig och denna gång, nästa artikel kommer att handla om vår nya router … kanske … 🙂
I det digitala kungariket Infosphera, där strömmar av information flödade över kontinenter och hav, fanns tretton legendariska väktare. Dessa väktare kände alla till som Root DNS Servrarna och var kända för sina magiska krafter som upprätthöll ordning och stabilitet i den annars kaotiska världen av nätverk och internetprotokoll.
I urminnes tider hade dessa tretton väktare varit utvalda av det digitala ödet för att stå emot kaos och förvirring. Var och en bar ett namn efter alfabetets första tretton bokstäver, från A till M, och de var utspridda över världen, men genom kraften av anycast kunde de existera samtidigt på flera platser, alltid redo att hjälpa dem i behov.
A-Root, ledaren och den äldsta av dem alla, var känd för sin visdom och klarsynthet. Ursprungligen från Verisigns hjärta, hade A-Root förmågan att förutse potentiella problem innan de uppstod och skapade på så sätt en konstant balans i Infosphera.
B-Root, belägen vid det prestigefyllda University of Southern California, förkroppsligade kunskapens kraft. Den analyserade nätverkets djup och hjälpte medborgarna att förbli anslutna med intellektets klarhet.
C-Root, mästaren av kommunikation, hade kraften att sammanföra folk från världens alla hörn, vilket gjorde det möjligt för ord och data att resa utan hinder genom Cogent Communications osynliga nät av trådar.
D-Root, harmonisaren från University of Maryland, var den rättvise domaren som säkerställde att varje sökning och varje anrop nådde sitt rätta slutmål.
E-Root var den djärve äventyraren, som representerade mänsklighetens innovation vid NASA Ames Research Center. Denna väktare uppmuntrade utforskning och nyfikenhet, och pressade Internets gränser längre än vad någon tidigare kunde föreställa sig.
F-Root, evighetens resenär från Internet Systems Consortium, anpassade sig till alla miljöer och säkerställde att anslutningen alltid fanns där, oavsett var i världen man befann sig.
G-Root, skyddaren, blev formad av USA:s försvarsdepartement och stod ständigt på vakt, skyddade Infosphera från yttre hot och bedrägerier.
H-Root, strategen från U.S. Army Research Lab, planerade och förutsåg varje utmaning, vilket gav säkerhet till det digitala riket.
I-Root, med ursprung i det fridfulla Sverige och förvaltad av Netnod, var sinnebilden för global enighet och spred digital harmoni över världen.
J-Root, en broder i Verisigns grid, stödde kontinuerligt sin familj och förstärkte nätets stabilitet genom förändringarnas vindar.
K-Root, med sina rötter i London och förvaltad av RIPE NCC, var både kulturbrobyggaren och globetrottern, sammanlänkade världens människor i ett gemensamt virtuellt forum.
L-Root, guidestjärnan skapad av ICANN, ledde varje digital resenär på ett säkert sätt genom informationshavet och såg till att varje förfrågan fann sin hamn.
M-Root, utvecklad av Japans WIDE Project, var innovationens drivkraft som inspirerade den digitala sfären till ständig förnyelse och utveckling.
Men en dag hotades denna fridfulla värld av en ond kraft, känd som Datastöraren. Denne illvillige varelse försökte genom kaos och skadlig kod bryta de band som förenade de tretton väktarna. Det blev en strid för nätverkets liv och framtid.
De tretton väktarna möttes i en episk kamp där A-Root förutsåg attackerna och B-Root tog fram strategier för motstånd. C-Root såg till att kärnkommunikationen förblev intakt, medan de andra säkrade och återställde nätets stabilitet.
Tillsammans lyckades de besegra Datastöraren och återställa ordningen i Infosphera. De fortsatte sitt outtröttliga vaktslående arbete, skyddande och tjänande de miljarder digitala resenärer som litade på deras vakande låga.
Och så fortsatte legenden om de tretton Root DNS Servrarna – en påminnelse om styrkan i samarbete, motståndskraft och innovationskraft när nätverket återigen kände trygghetens lugna flöde. Trots de stormiga tider som de hade genomlevt, visste de att deras uppdrag aldrig skulle ta slut. De var evighetens härskare över länkar och datorvägar, och deras lojalitet gentemot användare över hela jordens yta var orubblig.
Med tiden började människor förstå berättelsen om de osynliga väktarna. Många sökte mer kunskap om detta harmoniska nätverkssystem som orkestrerade sina digitala liv. Inspirerade av den nyfunna insikten började teknister och tänkare i alla hörn av världen att utveckla nya lösningar baserade på de värdefulla lärdomar Root Servrarna hade gett.
Tack vare sina heroiska ansträngningar blev servrarna inte bara tekniska hörnpelare utan också symboler för enighet och gemenskap i det digitala samfundet. Organisationer och individer över hela världen började bygga sina egna nätverk av innovation under liknande modeller, och dessa nya nätverk förde människor ännu närmare varandra än någonsin tidigare.
Det digitala kungariket Infosphera, nu stärkt av sitt återupplivade och upplysta folk, gick in i en ny era av möjligheter. Från hörn till hörn började ingenjörer och entreprenörer likt att finna inspiration i de tretton väktarnas oändliga potential och från deras motståndskraft skapades framtida generationers digitala motorvägar.
I det tysta fortsatte DNS Root Servrarna sitt dagliga arbete, nöjda med vetskapen om att deras osynliga tjänst bidrog till att lyfta mänskligheten till nya höjder. Så länge det fanns behov av koppling och förståelse, skulle deras legend fortplantas genom den digitala etern, bevarad i varje länk, varje ping, och varje stärkt kommunikation mellan själar världen över.
Och så lever berättelsen vidare – en saga om balans och beslutsamhet, där de tretton väktarna för evigt vandrar det oändliga nätverkets eter, med ett vakares ansvar i en alltmer ansluten värld.
OpenMediaVault (OMV) är en populär, öppen källkodslösning för nätverksanslutna lagringsenheter (NAS), och omv-firstaid är ett verktyg som spelar en viktig roll för att underlätta systemadministration och felsökning i OMV-miljön. Här är varför man kanske behöver använda omv-firstaid och vad verktyget kan göra:
Varför använda omv-firstaid? Återställning från felsituationer, ibland kan tjänster eller konfigurationer i OMV sluta fungera korrekt på grund av ändringar, uppdateringar eller oavsiktliga fel. omv-firstaid erbjuder en snabb väg tillbaka till ett fungerande system utan att behöva göra en fullständig ominstallation. Nätverksproblem, ett vanligt problem som administratörer kan stöta på är nätverksfel, där servern kanske inte kan kommunicera med nätverket korrekt. Detta kan leda till att användare inte kan komma åt sina delade filer eller webben för admininstration. omv-firstaid tillåter administratören att återställa nätverksinställningar eller konfigurera en korrekt IP-adress och DNS. Åtkomst till webgränssnittet, förlora åtkomsten till OMV:s webadministrationsgränssnitt kan vara frustrerande. Om du glömmer ditt lösenord eller något går fel med autentiseringen, kan omv-firstaid hjälpa till att återställa lösenordet så att du snabbt kan återfå kontrollen. Reparation av filsystem, korruption eller fel i filsystemet kan orsaka stora problem, särskilt om viktiga data blir otillgängliga. Verktyget kan hjälpa till att identifiera och reparera vissa filsystemfel, vilket bidrar till att säkerställa att data stannar intakta och är tillgängliga. Snabb felsökning och underhåll, för administratörer som vill ha en snabb och enkel metod för att felsöka och underhålla OMV-system utan att behöva gräva djupt i terminalkommandon eller konfigurera varje tjänst manuellt, är omv-firstaid oersättligt.
Funktioner i omv-firstaid omv-firstaid innehåller flera verktyg som kan lösa problem och underlätta för administratörer.
Återställ eller ändra nätverksinställningar, om statiska eller dynamiska IP-adresser behöver justeras kan du göra detta direkt genom verktyget. Detta är särskilt användbart om enheten har förlorat sin nätverksanslutning.
Lösenordsåterställning, lösenord kan enkelt glömmas, men med omv-firstaid kan du resetta detta så att du inte låses ute från viktigt administrativt arbete.
Kontrollera och reparera filsystem, om du misstänker problem med lagringsenheterna kan omv-firstaid både kontrollera och rätta till vanliga fel i filsystemen, vilket minskar risken för dataförlust.
Konfigurera DNS, för att säkerställa att servern har korrekt tillgång till Internet och interna resurser, kan du konfigurera DNS-inställningar.
Cachehantering, problem med webgränssnittet kan många gånger lösas snabbt genom att rensa dess cache, vilket kan medför att förändringar träder i kraft utan fel.
Förutom att hantera akuta problem, är omv-firstaid ett ovärderligt verktyg för löpande underhåll. Regelbunden användning kan bidra till att förhindra framtida problem genom att säkerställa att konfigurationer är optimala och att systemkomponenterna är i gott skick. Genom att integrera verktyget i rutinmässig systemdiagnostik, kan administratörer proaktivt hantera och optimera prestanda samt undvika driftstopp.
omv-firstaid är en kraftfull och användarvänlig resurs för alla OMV-användare, oavsett om man är nybörjare eller erfaren administratör.
Vi använder alla begreppen GMT eller UTC, ibland lite blandat utan att kanske inse skillnaderna, och sedan har vi dessutom Unixtd eller Epochtid som det egentligen heter. Den sista är det nog mest datornördar som förstår och använder …
Lite bakgrund kanske?
GMT: Greenwich Mean Time grundades som en tidstandard på 1800-talet när brittiska sjökaptener använde den för navigering på haven. Den härstammar från den medelsolära tiden vid nollmeridianen vid Royal Observatory i Greenwich, London. Det innebar att GMT var baserat på jordens rotation i förhållande till solen.
UTC: UTC utvecklades som en mer exakt version av GMT i mitten av 1900-talet. Det skapades för att erbjuda en global tidstandard som var mer exakt och mindre beroende av jordens osäkra rotation, och är därmed en atomtidsstandard.
GMT är fast och justeras inte för oregelbundenheterna i jordens rotationshastighet. Det innebär att GMT inte tar hänsyn till små variationer som påverkar jordens rotation, vilket leder till små tidsavvikelser över längre perioder.
UTC är exaktare eftersom det kombinerar Coordinated Atomic Time (TAI) med universaltid. För att hålla UTC i synk med jordens rotation läggs ibland skottsekunder till. Detta görs för att kompensera för skillnader mellan atomtiden och soltid, vilket innebär att UTC kan ligga en sekund före eller efter TAI, beroende på när en skottsekund läggs till.
UTC har blivit den globala standarden för att hålla tid i vetenskaplig och teknisk bemärkelse, inklusive inom områden som luftfart, utrikestransaktioner och annan kommunikation. Det är specifikt utformat för att vara en konsekvent och tillförlitlig global tidstjänst.
GMT används fortfarande i vissa sammanhang i vardagsspråk, särskilt i Storbritannien under vintermånaderna. Men för formell tidssynkronisering används UTC oftare globalt. Det används ofta som den lagliga tidszonen i vissa länder och anses fortfarande vara en formell tidsreferens under vintersäsongen i Storbritannien. GMT är därmed också relevant i kulturella sammanhang.
UTC är den tid som används inom informationssystem världen över. Datorer, internetprotokoll och GPS-system förlitar sig exempelvis på UTC snarare än GMT. Detta gör UTC till en universell tidstandard över nationella gränser och säsonger.
Medelsoltid jämfört med Atomtid? GMT bygger på medelsoltid, vilket innebär att en soldag är medelvärdet av solens passage över nollmeridianen. UTC, å andra sidan, bygger på atomtid, där atomklockor, speciellt i caesium- eller tritiumbaserade klockor, upprätthåller tiden med en oslagbar precision.
GMT användes ursprungligen som standard för tidszoner innan atomklockor låg till grund för den mer precisa UTC.
Skottsekunder tillämpas i UTC men inte i GMT, vilket säkerställer UTC:s noggrannhet med planetens oförutsägbara rotationshastighet.
Fastän båda används idag, är UTC den referenspunkt som föredras för tekniska och vetenskapliga användningar.
Att kunna särskilja och förstå hur dessa tidsstandarder fungerar är avgörande för global tidshantering och teknisk kommunikation. Medan GMT fortfarande har kulturell och praktisk betydelse i vissa regioner, är UTC oöverträffad vad gäller precision och global användning, vilket gör den till en naturlig val för global koordinering.
Och så har vi Unixtid …
… är även känd som Epochtid, är ett sätt att representera tid som det totala antalet sekunder som har passerat sedan den 1 januari 1970 vid midnatt UTC (00:00:00), utan att räkna med skottsekunder. Detta datum kallas Unix Epoch, och det används ofta inom Unix-liknande operativsystem och programmeringsspråk för att representera tid på ett standardiserat sätt.
Användningsområden och egenskaper?
Enkelhet, Unixtid representeras som ett enkelt heltal, vilket gör det enkelt att lagra och hantera i databaser och programvara. Plattformsoberoende, då det är en standard som används av många operativsystem och programmeringsspråk, underlättar det tidsberäkningar och tidsjämförelser på olika plattformar. Tidsberäkningar, det är enkelt att utföra matematiska operationer med unixtid, som att beräkna tidsskillnader eller lägga till och dra ifrån tid. Global standard, eftersom Unixtid är baserad på UTC, är det en global standard som eliminerar komplikationer som uppstår vid hantering av tidzoner och sommartid. Vanlig i utveckling:, många utvecklingsverktyg och API:er använder Unixtid som ett sätt att hantera tidsinformation, vilket gör den grundläggande för utvecklare. Unixtid är alltså en tidshanteringsmetod som gör det möjligt för datorer att enkelt och konsekvent tolka och manipulera tidsdata, vilket är särskilt användbart för applikationer som kräver exakt tidshantering.
Varför är då tidshantering så viktigt inom datorvetenskapen?
Tidshållning är avgörande inom datorvetenskap av flera viktiga skäl, inte minst för synkronisering av system.
I distribuerade system, där flera datorer arbetar tillsammans, krävs exakt tidssynkronisering för att koordinera aktiviteter och säkerställa dataintegritet. Till exempel är tidsstämplar nödvändiga för att ordna händelser och handlingar i sekventiell ordning.
Sedan gäller det nätverksprotokoll, många Internetprotokoll och säkerhetsfunktioner är beroende av korrekt tid. Protokoll som NTP (Network Time Protocol) används för att synkronisera datorers klockor över nätverk, vilket är kritiskt för att upprätthålla korrekt drift och säkerhet.
Vad med våra databaser då, tidsstämplar är viktiga för att hantera transaktioner i databaser, speciellt i fall där det krävs återställning eller datareplikering. Tidsstämplar hjälper till att säkerställa att transaktioner sker i rätt ordning och att eventuella kollisioner hanteras korrekt.
För loggning och felsökning är en gemensam tidshållning också vital, loggfiler innehåller tidsstämplar som är avgörande för felsökning och övervakning av system. De hjälper utvecklare att spåra händelser och identifiera exakt när ett problem uppstod.
Många säkerhetsprotokoll förlitar sig på tidsstämplar för att verifiera giltigheten av certifikat eller autentiseringstokens. Tid begränsar giltigheten och kan bidra till att mildra replay-attacker.
För att mäta och optimera systemprestanda, som att beräkna svarstid eller mäta fördröjning, krävs exakt tidshållning. Detta hjälper utvecklare att identifiera flaskhalsar och optimera applikationer.
Tillämpningar som kräver realtidsinteraktioner (t.ex. onlinespel eller videochatt) behöver noggrann tidssynkronisering för att ge en bra användarupplevelse och säkerställa att alla deltagare ser och hör samma sak samtidigt.
En exakt och gemensam tidshållning en hörnsten i att bygga och underhålla pålitliga och effektiva datorbaserade system, vilket påverkar allt från daglig användning till avancerad teknisk hantering.
… som vi använde mycket i början av 1990-talet innan själva ordet Internet användes av gemene man.
CompuServe var en av de första stora aktörerna på området för onlinetjänster för persondatorer och spelade en viktig roll i utvecklingen av den digitala världen under 1980- och 1990-talen. CompuServe grundades 1969 som Compu-Serv Network, Inc. och inriktade sig initialt på att erbjuda tidningsdelningstjänster för företag, som gav dem tillgång till datorkraft innan persondatorerna blev vanliga. Det var inte förrän i slutet av 1970-talet som CompuServe vände sig till konsumentmarknaden, vilket blev avgörande för utvecklingen av tidiga onlinegemenskaper och beredde väg för framtida internetleverantörer.
Under 1990-talet nådde CompuServe sin största popularitet. Tjänsten var tillgänglig via sin egen programvara och användare kunde ansluta sig via uppringda modem—en teknik som, trots dess långsamma hastighet jämfört med dagens standard, var revolutionerande vid den tiden. Vid anslutning presenterades användarna med ett textbaserat gränssnitt som erbjöd ett brett utbud av tjänster: e-post, diskussionsforum, fildelning, nyheter, väderrapporter och aktiemarknadsnoteringar, bland annat.
En av CompuServes mest framträdande funktioner var dess onlineforum, som i dag kan erkännas som tidiga former av sociala medieplattformar eller gemenskaper. Dessa forum gjorde det möjligt för användare att samlas kring gemensamma intressen, från hobbyer till yrkesverksamhet. Special Interest Groups (SIGs), som de kallades, skapade en känsla av gemenskap och samhörighet som påminner om dagens onlineplattformar. Denna möjlighet till interaktion och gemenskapsbyggande visade på potentialen hos onlinetjänster att koppla samman människor oavsett geografiska avstånd.
CompuServe var också anmärkningsvärd för att ha varit en pionjär inom e-posttjänster online. Vid en tidpunkt när e-post ännu inte var allmänt spridd, erbjöd CompuServe ett sätt för individer att skicka och ta emot elektroniska meddelanden. Denna funktionalitet var ovärderlig för företagssfolk och blev snabbt en säljpunkt för tjänsten. CompuServes e-posttjänst representerade en förändring i kommunikationsparadigmen, som signalerade en övergång från traditionell post till digital kommunikation, vilket nu är en hörnsten i det moderna samhället.
Dessutom bröt CompuServe ny mark genom att erbjuda tjänster för online-shopping och bankärenden under 1990-talet. Dessa tjänster, även om de var rudimentära med dagens mått mätt, gav användarna bekvämligheten att genomföra transaktioner online. Detta förebådade den slutliga explosionen av e-handel och nätbank, sektorer som idag är integrerade komponenter i den globala ekonomin.
En viktig milstolpe i CompuServes historia var introduktionen av GIF (Graphics Interchange Format) 1987, vilket blev en standard för bilder online tack vare sin förmåga att stödja enkla animationer och komprimera bildfiler utan kvalitetsförlust. Även om andra format senare har dykt upp, är GIF fortfarande populära idag, särskilt för animationer, och har haft en betydande påverkan på den digitala kulturen.
Under 1990-talet stod CompuServe inför stora utmaningar på en alltmer konkurrensutsatt marknad för onlinetjänster. America Online (AOL) trädde in med aggressiva marknadsföringsstrategier, såsom utskick av gratis provpaket på disketter och senare CD-skivor, vilket snabbt urholkade CompuServes marknadsandel. AOL:s användarvänliga och grafiska gränssnitt blev mainstream och konkurrerade ut CompuServes textbaserade tjänst. Dessutom erbjöd World Wide Web användarna ett brett utbud av information och nya sätt att ansluta som CompuServes slutna nätverk inte kunde mäta sig med.
Trots dessa utmaningar spelade CompuServe en viktig roll under denna övergångsperiod och fungerade som en brygga mellan tidiga onlinetjänster och den fullt sammankopplade värld vi känner idag. Det visade potentialen hos onlinegemenskaper och kommunikation långt innan sociala medier och moderna internetleverantörer tog plats. I mitten av 1990-talet började CompuServe erbjuda webbtillgång, men det var inte tillräckligt för att bibehålla sin ledande position i konkurrens med de snabbt utvecklande motståndarna. För att försöka anpassa sig till den nya digitala eran och locka en bredare användarskara lanserade CompuServe tjänsten WOW! Detta var ett försök att attrahera AOL:s publik med ett mer användarvänligt gränssnitt och tjänster. Trots dessa insatser kämpade CompuServe fortsatt med övergången till nya tekniska plattformar och de förändrade kraven från användarna.
1997 köptes CompuServe av WorldCom, och året därpå blev dess onlinetjänstdel en del av AOL. Denna försäljning markerade slutet på CompuServes tid som ett självständigt varumärke och var en följd av den intensiva konkurrens och innovation som kännetecknade det snabbt föränderliga teknologiska landskapet under slutet av 1990-talet.
Även om CompuServe inte längre finns kvar som en ledande aktör på marknaden, har dess arv en bestående betydelse. Det fungerade som en pionjär, som introducerade koncept och teknologier som förebådade dagens internet. Onlinegemenskaper, elektronisk kommunikation och digital informationstjänster som CompuServe introducerade, lade grunden för många av de funktioner vi idag tar för givna i vår uppkopplade värld.
Dess roll i att forma den tidiga digitala kulturen är obestridlig, och det lade även fram förståelsen för hur starkt sammankopplad kommunikation kan påverka både personligt och professionellt liv. CompuServe visade världen potentialen i digitala nätverk och hjälpte till att sätta standarden för vad framtida internetbaserade tjänster kunde vara.
Sammanfattningsvis var CompuServe inte bara en tjänst, utan ett avgörande steg mot den globalt uppkopplade världen vi lever i idag. Det banade vägen för senare innovationer inom den digitala sektorn och tjänade som modell för ett nytt sätt att tänka kring kommunikation och information. Genom att introducera teknologier och sätt att interagera online som fortfarande är grundläggande idag, har CompuServe en säker plats i historien som en banbrytande aktör i 1990-talets digitala revolution.
Att installera OpenMediaVault 7 (OMV7) på en Raspberry Pi 5 är ett utmärkt sätt att skapa en kraftfull och flexibel nätverkslagringslösning. OpenMediaVault är en öppen källkodsprodukt som ger användarna möjlighet att enkelt hantera datalagring och delning från ett webbaserat gränssnitt. I denna guide kommer vi gå igenom installationsprocessen för OMV7 som inkluderar förberedelser, installation, grundläggande konfiguration och hur man sätter upp användare i OMV7.
Steg 1: Förberedelser före installationen
1.1 Utrustning och material
Innan vi börjar installationen behöver vi säkerställa att vi har den nödvändiga utrustningen:
Raspberry Pi 5: Självklart behöver du en Raspberry Pi 5.
MicroSD-kort: Ett klass 10 microSD-kort med minst 16 GB lagringsutrymme. För bättre prestanda och mer lagringsutrymme kan ett 32 GB eller större kort rekommenderas.
Strömförsörjning: En officiell Raspberry Pi strömförsörjning som kan försörja din Pi med tillräckligt med energi.
USB-hårddisk: Om du planerar att använda OMV som en NAS-lösning kommer en extern USB-hårddisk att vara nödvändig.
HDMI-kabel och skärm: För att kunna se installationens framsteg initialt.
Tangentbord: För att navigera genom installationsprocessen.
Dator: För att ladda ner och installera mjukvara på microSD-kortet.
Hitta den senaste versionen av OMV7 för Raspberry Pi. Ladda ner .img-filen eller .zip-filen med den senaste versionen av systemavbildningen.
1.3 Skriva OMV till microSD-kortet
Installera skrivprogramvara: Det finns flera tillgängliga verktyg för att skriva avbildningar, som balenaEtcher, Raspberry Pi Imager eller Win32 Disk Imager. I den här guiden kommer vi att använda balenaEtcher.
Sätt in microSD-kortet: Anslut microSD-kortet till din dator via en kortläsare.
Skriv avbildningen:
Öppna balenaEtcher.
Välj den nedladdade OMV7-avbildningen.
Välj ditt microSD-kort som skrivmål.
Klicka på ”Skriv” för att påbörja processen. Det kan ta några minuter att skriva data till kortet.
1.4 Starta Raspberry Pi
Sätt i microSD-kortet: När skrivningen är klar, ta ut microSD-kortet från datorn och sätt det i Raspberry Pi:s kortplats.
Anslut komponenterna: Anslut HDMI-kabeln till en skärm, USB-hårddisken (om tillämpligt), tangentbordet och Ethernet-kabeln.
Slå på Raspberry Pi: Anslut strömförsörjningen till Raspberry Pi, och den kommer att starta automatiskt.
Steg 2: Installation av OpenMediaVault
2.1 Logga in på terminalen
När Raspberry Pi har startat ser du terminalgränssnittet. Logga in med standardanvändarnamn och lösenord:
Användarnamn: admin
Lösenord: openmediavault
Du kan bli ombedd att ändra lösenordet vid första inloggningen.
2.2 Anslut till webbgränssnittet
Hitta IP-adressen: I terminalen kan du använda kommandot ip addr för att få din Raspberry Pi:s IP-adress. Den kommer att visas under eth0 eller wlan0 beroende på om du använder Ethernet eller Wi-Fi.
Öppna en webbläsare: På din dator, öppna en webbläsare och skriv in IP-adressen följt av / för att komma till webgränssnittet, till exempel http://192.168.1.x.
Logga in: Använd samma användarnamn och lösenord som tidigare (admin/openmediavault).
2.3 Grundläggande konfiguration
När du är inloggad i OMV:s webbgränssnitt kommer du att se en översikt över systemstatusen. Nedan följer grundkonfigurationerna du bör göra:
Systemuppdatering:
Gå till ”System” -> ”Update Management”.
Se till att systemet är uppdaterat.
Tid och datum:
Gå till ”System” -> ”General Settings” -> ”Timezone” och ställ in rätt tidszon.
Nätverksinställningar:
Gå till ”System” -> ”Network” för att kontrollera och konfigurera nätverksinställningarna. Här kan du ställa in en statisk IP-adress om det behövs.
Steg 3: Diskhantering
3.1 Anslutning av lagringsenheter
Anslut USB-hårddisk: Se till att din externa USB-hårddisk är ansluten till Raspberry Pi.
Kontrollera diskar:
Gå till ”Storage” -> ”Disks” i webbgränssnittet.
Du kommer se en lista över anslutna lagringsenheter. Välj den disk du vill använda.
3.2 Radera och skapa ett filsystem
Radera disken (om det behövs):
Markera den disk du vill konfigurera och klicka på ”Wipe” för att radera den. Detta steg är viktigt för att vara säker på att disken är redo för användning.
Skapa filsystem:
Navigera till ”File Systems” -> ”Add”. Välj den disk du just har raderat och välj en typ av filsystem (rekommenderas ext4).
Klicka på ”Create” för att skapa filsystemet.
Montera filsystemet:
När filsystemet har skapats, välj det i listan och klicka på ”Mount” för att aktivera det så att det kan användas.
Steg 4: Skapa delade mappar
Skapa en delad mapp:
Gå till ”Access Rights Management” -> ”Shared Folders” och välj ”Add”.
Ge den delade mappen ett namn, välj filsystemet du just har skapat och specificera sökvägen.
Spara och aktivera:
Klicka på ”Save” för att skapa den delade mappen.
Steg 5: Aktivera delningsprotokoll
5.1 SMB/CIFS
Aktivera SMB/CIFS:
Gå till ”Services” -> ”SMB/CIFS” och aktivera tjänsten.
Lägg till delade mappar:
Under fliken ”Shares”, lägg till den delade mappen som du skapade. Klicka på ”Add” och välj den delade mappen från rullgardinsmenyn.
5.2 NFS (om du vill använda det)
Aktivera NFS:
Gå till ”Services” -> ”NFS” och aktivera tjänsten.
Lägg till NFS-delning:
Klicka på ”Add” för att skapa en NFS-delning för den delade mappen.
Steg 6: Skapa användare och hantera åtkomsträttigheter
Att skapa användare och hantera åtkomsträttigheter är avgörande för dataskydd och säkerhet.
6.1 Skapa användare
Gå till användarhantering:
Navigera till ”Access Rights Management” -> ”Users”.
Lägg till en ny användare:
Klicka på ”Add” för att skapa en ny användare.
Fyll i informationen som användarnamn, lösenord, och ställ in rättigheter och behörigheter. Här kan du också styra vilken typ av åtkomst användaren har till de delade mapparna.
Spara: Klicka på ”Save” för att skapa användaren.
6.2 Hantera användarrättigheter
Tilldela rättigheter:
Gå tillbaka till ”Shared Folders” och välj den delade mappen.
Under fliken ”ACL” (Access Control List) kan du tilldela rättigheter till olika användare för att styra vem som får läsa, skriva eller bara läsa.
6.3 Hantera grupper (valfritt)
Skapa grupper:
Om du hanterar flera användare kan det vara bra att skapa grupper för att lättare kontrollera rättigheter. Gå till ”Access Rights Management” -> ”Groups”.
Klicka på ”Add” för att skapa en ny grupp och lägg till användare i grupper för att styra rättigheter mer effektivt.
Steg 7: Säkerhetskopiering och underhåll
7.1 Säkerhetskopieringar
Överväg att konfigurera säkerhetskopior:
Du kan ställa in säkerhetskopieringslösningar antingen genom att använda externa enheter eller molntjänster för att säkerhetskopiera viktiga data.
7.2 Underhåll
Regelbunden uppdatering:
Du bör regelbundet kontrollera och installera uppdateringar via ”Update Management” för att se till att systemet alltid är säkert och stabilt.
7.3 Övervakning
Övervaka systemresurser:
Använd OMV:s övervakningsverktyg för att hålla koll på lagringsutrymme och systemprestanda samt eventuella felmeddelanden.
Steg 8: Fjärråtkomst och säkerhet
8.1 Fjärråtkomst
Ställ in DDNS:
Om du vill kunna komma åt din NAS utanför ditt lokala nätverk kan du ställa in en dynamisk DNS (DDNS) för att göra det lättare att nå ditt hemmanätverk.
8.2 Brandvägg och säkerhet
Säkerhetsåtgärder:
Det rekommenderas att du ser över brandväggsinställningarna på din router samt eventuella säkerhetsåtgärder i OMV för att förhindra obehörig åtkomst.
Genom att följa dessa steg har du framgångsrikt installerat OpenMediaVault 7 på din Raspberry Pi 5 och ställt in ett funktionellt NAS-system. OMV7 ger enorma möjligheter för både hem- och företagssystem med enkel hantering av data. Du har nu skapat ett säkert och användarvänligt miljö för lagring och delning av filer. Med rätt konfiguration och underhåll kan du maximera nyttan av din Raspberry Pi-baserade NAS-lösning.
Att vara noga med min fstab-fil i mitt Linuxbaserade system är avgörande för att säkerställa att mitt operativsystem fungerar smidigt och effektivt. fstab, som står för ”file systems table,” spelar en central roll i hur olika filsystem och partitioner monteras vid systemstart. Genom att ta hand om den här filen kan jag undvika systemproblem, optimera prestandan och skydda min data. Här är en fördjupad titt på varför jag behöver vara noggrann med fstab, samt hur jag kan åtgärda problem om de uppstår.
Varför jag är noga med fstab:
Systemets grundpelare för montering:fstab är hjärtat av mitt systems monteringsprocess. Om den här filen innehåller felaktigheter kan viktiga filsystem misslyckas med att montera, vilket innebär att vissa delar av systemet kan vara otillgängliga. Det här kan leda till allvarliga problem, inklusive att systemet inte startar korrekt.
Automatisk montering: Genom att använda fstab kan jag automatisera monteringen av olika diskar och partitioner varje gång systemet startas. Detta sparar mig tid och säkerställer att alla resurser jag behöver är tillgängliga utan manuellt arbete från min sida.
Säkerhet och integritet: Om inte korrekt konfigurerad, kan fstab introducera säkerhetsrisker. Jag använder alternativ som noexec, nosuid, och nodev där det är lämpligt för att minimera risken för att skadlig kod körs från dessa filsystem. Dessutom är korrekt konfigurerade monteringsalternativ avgörande för att skydda data mot oavsiktlig korruption.
Prestandaoptimering: Jag kan använda fstab för att optimera systemets prestanda genom att använda monteringsalternativ som påverkar diskåtkomst. Ett vanligt exempel är noatime, som förhindrar att åtkomsttidsinformationen uppdateras vid varje läsning, vilket reducerar antalet skrivningar och förbättrar prestanda.
Nätverks enhetsintegration: I situationer där jag behöver använda nätverksanslutna lagringslösningar, som NFS, är fstab viktigt för att säkerställa att dessa resurser finns tillgängliga och korrekt monterade vid uppstart, vilket hjälper till att undvika åtkomstproblem senare.
Hantering och översiktlighet:fstab ger en centraliserad vy över alla filsystem och deras monteringspunkter, vilket gör det enklare för mig att hantera och dokumentera systemets konfiguration. Med en välorganiserad fstab-fil är det lättare att snabbt göra nödvändiga ändringar utan att riskera fel.
Hur jag åtgärdar problem med fstab:
1. Förstå filens struktur: Varje rad i fstab representerar ett filsystem och dess monteringsparametrar. Jag ser alltid till att förstå syntaxen: filsystems-enhet, monteringspunkt, filsystemstyp, monteringsalternativ, dumpfrekvens och pass-order.
2. Säkerhetskopiera fstab: Innan jag gör några ändringar, säkerhetskopierar jag filen med cp /etc/fstab /etc/fstab.bak. Detta ger mig en utgångspunkt att återvända till om något går fel.
3. Testa förändringar: När jag planerar att lägga till eller ändra en post i fstab, monterar jag alltid disken manuellt först med mount-kommandot för att verifiera att alla parametrar är korrekta.
4. Reparera vid startproblem: Om systemet misslyckas att starta på grund av fstab-fel, använder jag en live-USB eller annan återställningsmetod för att starta systemet och redigera fstab. Därifrån kan jag använda nano /etc/fstab eller liknande redigerare för att korrigera problemen.
5. Validering med mount -a: Efter att ha redigerat fstab, ser jag till att köra kommandot mount -a, vilket försöker montera alla filsystem som anges i fstab. Detta hjälper mig att identifiera konfigurationsfel innan jag startar om systemet.
6. Logg och spårning: Kontroll av systemloggar med dmesg eller `journalctl”.
Jag använder dmesg eller journalctl för att kontrollera systemloggarna noggrant efter förändringar i fstab. Det är viktigt för mig att hålla koll på eventuella felmeddelanden som kan indikera problem med monteringsprocessen. Loggarna kan ge insikter om var problem kan uppstå, vilket hjälper mig att snabbt identifiera och rätta till fel.
Förebyggande åtgärder och diskhantering
1. Dokumentera ändringar: För att hålla reda på ändringar i fstab, ser jag till att dokumentera varje ändring jag gör. Detta hjälper mig att förstå varför vissa beslut togs och underlättar felsökning om ett problem uppstår senare.
2. Använd korrekta monteringsalternativ: Jag ser alltid till att välja rätt monteringsalternativ för varje filsystem utifrån dess syfte. Viktiga alternativ som rw (read/write), ro (read-only), och andra specifika som noatime, nodiratime används enligt behoven för att balansera mellan funktionalitet och prestanda.
3. Övervaka diskhälsa: Regelbundet övervakar jag hårddiskarnas hälsa med verktyg som smartctl från smartmontools-paketet. Genom att tidigt fånga upp problem som begynnande diskfel kan jag vidta åtgärder innan de leder till dataförlust eller systemproblem.
4. Krav för specifika program: Program eller tjänster som kräver speciella monteringsalternativ hanteras med försiktighet. Jag ser till att varje monterad enhet som används av en speciell programvara är konfigurerad enligt programmets dokumentation och behov.
5. Använd kommentarer i fstab: Jag lägger ofta till kommentarer i fstab för att förklara valet av vissa monteringsalternativ. Detta inte bara hjälper mig utan även andra som kan administrera systemet i framtiden att förstå varför specifika konfigurationer gjordes.
Att lära av misstag
Jag har lärt mig av tidigare misstag att en felkonfigurerad fstab kan leda till stora problem, såsom att systemet inte startar eller oanvändbara enheter. Genom att kontinuerligt utbilda mig och använda tillgängliga resurser online lär jag mig mer om hur jag effektivt kan hantera denna kritiska fil.
Hur man förbereder sig För återställning:
För att förbereda mig för eventuella problem ser jag alltid till att:
Ha en bootbar LiveUSB till hands: Detta är avgörande för att kunna starta systemet och göra ändringar om en felaktig fstab hindrar normal start.
Säkerhetskopiera kritiska systemfiler: Regelbunden säkerhetskopiering av filer som fstab gillar jag eftersom det ger säkerhet och gör det möjligt att snabbt återgå till ett fungerande tillstånd.
Skapa en räddningsplan: Jag har en tydlig plan för vad jag ska göra om ett monteringsproblem uppstår, och jag testar denna plan regelbundet för att se till att den fungerar som förväntat.
Genom att ha dessa strategier och åtgärder på plats försäkrar jag mig om att jag effektivt kan hantera och skydda min fstab. Jag håller min Debian 12 installation stabil och säker genom att ta hand om denna kritiska konfigurationsfil och uppmärksamma dess vikt i den dagliga driften av mitt system.
Jag är en person som värdesätter min integritet på nätet och vill ha kontroll över min digitala närvaro, därför har jag funnit många fördelar med att använda en sökproxy som SearxNG. Genom mina erfarenheter och utforskanden av olika aspekter av internetanvändning, är det klart att SearxNG:s funktion erbjuder en betydande förbättring jämfört med traditionella sökmotorer, särskilt när det kommer till privatliv, säkerhet och inte minst anpassningsbarhet.
Integritet och anonymitet
För mig är integritet på nätet en rättighet snarare än en lyx. När jag använder stora sökmotorer, vet jag att varje sökning kan sparas, analyseras och användas för att bygga en profil av mig. Detta har kanske inte alltid gjort mig obekväm utan mer irriterad. SearxNG agerar som en sökproxy som inte lagrar mina sökfrågor eller personlig information. Det betyder att jag kan söka fritt utan att känna att varje klick och varje sökterm övervakas. Denna anonymitet är ovärderlig för mig, både i min personliga användning och professionella användning av ”Google”.
Annonseringsfri upplevelse
En annan stor fördel jag har upplevt med SearxNG är avsaknaden av annonser. Traditionella sökmotorer visar ofta skräddarsydda annonser baserat på min sökhistorik. Det kan kännas påträngande och distrahera från den information jag verkligen är intresserad av och ibland är det helt omöjligt att avgöra vad som är annonser och vad som är fakta. När jag använder SearxNG kan jag söka utan dessa störningar, vilket gör upplevelsen mycket mer fokuserad och fri från den visuella röran som annonser ofta medför.
Anpassningsbarhet och flexibilitet
Jag uppskattar verkligen SearxNG:s flexibilitet. Den gör det möjligt för mig att konfigurera vilka söktjänster jag vill använda, vilket är en funktion som jag utnyttjar fullt ut. Om jag till exempel behöver information från akademiska källor kan jag justera inställningarna för att prioritera dessa i mina sökningar. Detta sparar mycket tid och energi, eftersom jag enkelt kan anpassa sökningen baserat på mina aktuella behov och intressen.
Fördelar med öppen källkod
SearxNG:s status som öppen källkod är en annan aspekt jag ser som en stor fördel. Att ha möjlighet att granska källkoden själv, eller att veta att den fram för allt har blivit granskad av en gemenskap av utvecklare och entusiaster, ger mig förtroende för verktygets säkerhet och funktionalitet. Det känns bra att veta att jag använder något som inte är en “black box”, utan snarare ett transparent verktyg där jag kan förstå och lita på hur min data hanteras.
Möjlighet till självhostning
Den decentraliserade naturen hos SearxNG är också mycket tilltalande. Möjligheten att självhosta min egen instans av SearxNG ger mig full kontroll över min sökupplevelse och säkerställandet av att min data alltid förblir inom mitt eget ekosystem. Självhostning minskar beroendet av tredjeparter och eliminerar risken för censur eller ofrivillig dataåtkomst av externa aktörer. Den känsla av oberoende och säkerhet är svår att överskatta.
Förbättrad säkerhet
Min oro över cyberbrott och dataintrång är hög, som den borde vara för alla som navigerar i dagens digitala landskap. SearxNG lagrar inte min data eller mina sökningar, vilket innebär att det finns mindre risk att jag faller offer för dataintrång. Detta skapar en säkerhetskudde som är svår att uppnå med många andra sökverktyg, och det är ett skyddsvärde jag inte är villig att ge upp.
Brett spektrum av söktjänster
SearxNG:s förmåga att dra resultat från flera sökmotorer är en funktion jag använder flitigt. Mina sökningar och intresseområden varierar kraftigt, och möjligheten att få en bred bild från flera källor samtidigt är ovärderlig. Jag kan hitta information från nyhetssajter, akademiska databaser och sociala medier allt på en gång, vilket inte bara sparar tid utan också ger mig en djupare förståelse av aktuella ämnen.
Minskar filterbubblor
Att undvika filterbubblor är en annan aspekt där jag ser stor nytta med SearxNG. Allteftersom algoritmer blir mer avancerade tenderar de att fastna i spår som främjar en smal och ibland begränsad syn på världen. Jag uppskattar att SearxNG erbjuder opersonliga sökresultat som inte är skräddarsydda efter min tidigare sökhistorik. Detta ger mig möjlighet att ta del av olika perspektiv och källor, vilket jag anser vara en mer balanserad och utbildad syn på världen omkring mig. Det öppnar upp för nya idéer, bryter ned fördomar och ger mig chansen att lära mig något nytt varje dag.
Internationell och lokal tillgång
Eftersom jag ofta är intresserad av både internationella och lokala frågor, är SearxNG:s flexibilitet att anpassa och justera söktjänster för olika regioner en stor tillgång. Oavsett om jag söker efter specifik lokal information eller jämför globala nyheter, tillåter SearxNG mig att lätt skifta fokus och få tillgång till den information jag behöver, utan att behöva byta plattform.
Gemenskapsbaserad utveckling
Det finns också ett stort värde i att veta att SearxNG utvecklas och förbättras av en engagerad gemenskap. Att vara en del av en rörelse som ståndaktigt främjar integritet och frihet online ger mig mer än bara ett verktyg; det ger mig en känsla av samhörighet med andra som delar mina värderingar kring digitala rättigheter och öppenhet. Denna gemenskap innebär att problemen fixas snabbare och att programvaran ständigt förbättras för att möta användarnas behov.
Utbildningsverktyg
I mitt arbete och personliga intressen spenderar jag mycket tid på att söka och läsa. SearxNG:s samlade sökmöjligheter gör det till ett extremt effektivt verktyg för just sökning. Genom att integrera flera informationskällor kan jag snabbt hitta relevanta artiklar, böcker, nyhetsinlägg och mer, vilket dramatiskt minskar den tid som behövs för att samla in primärdata och fakta. Denna effektivitet förstärker min förmåga att arbeta snabbare och smartare.
Bidrar till en bättre Internetkultur
Genom att använda och stödja verktyg som SearxNG, bidrar jag – om än i liten skala – till att främja en sundare och mer öppen kultur på nätet där individens rättigheter och integritet respekteras. Denna typ av medvetet val inspirerar mig att utforska fler möjligheter att skydda min data och medverka till en positiv förändring på lång sikt. Det är en del av ett större problem som jag är stolt över att kunna tillhöra, och som jag tror kommer leda till mer inkluderande och rättvisa framtida digitala landskap.
Att använda SearxNG har förändrat hur jag interagerar med internet. Dess egenskaper som säkerställer integritet och flexibilitet i kombination med en respekterad gemenskapsförbindelse gör det till mer än bara en teknisk lösning; det är en del av mina värderingar och målet att uppnå mer autonomt och säker interaktion online. För någon som jag, som bryr sig djupt om dessa frågor, är en sökproxy som SearxNG inte bara en fördel, utan en nödvändighet.
Webmin är ett webbaserat systemadministrationsverktyg för Unix-liknande system, inklusive Linux. Det gör det möjligt för användare att hantera sina system via en webbläsare, vilket eliminerar behovet av traditionella kommandoradsverktyg och förenklar processen för systemadministration. Webmin är särskilt populärt för fjärrhantering av servrar, då det erbjuder ett intuitivt grafiskt gränssnitt där administratörer kan utföra en mängd olika uppgifter.
Med Webmin kan användare enkelt konfigurera operativsystemets interna aspekter, såsom användarhantering, diskhantering, tjänster och processer, nätverkskonfiguration och systeminställningar. Det inkluderar också moduler för hantering av tjänster som Apache, DNS, delade filer via Samba, och mycket mer. Dessutom tillåter Webmin användare att hantera paketinstallationer och uppdateringar, vilket hjälper till att hålla systemet uppdaterat och säkert.
Webmin är också modulärt, vilket innebär att det lätt kan utökas med ytterligare moduler för andra tjänster eller egenkonfigurerade applikationer. Det är ett flexibelt och kraftfullt verktyg för både nybörjare och erfarna administratörer, och dess webbgränssnitt gör det tillgängligt för dem som inte är bekanta med avancerade kommandoradsgränssnitt. Sammantaget bidrar Webmin med stor användarvänlighet och effektivitet till systemförvaltning.
Webmin kan vara mycket användbart när du använder en Raspberry Pi, särskilt om du vill administrera systemet på distans. Här är några av de fördelar du kan ha av att använda Webmin på en Raspberry Pi:
Enkel Hantering av systemet: Webmin erbjuder ett användarvänligt gränssnitt för att hantera systeminställningar utan behov av kommandoradsverktyg. Detta kan göra det enklare för användare som inte är bekväma med Linux-kommandon.
Fjärradministration: Eftersom Webmin är webbaserat kan du få åtkomst till och hantera din Raspberry Pi från vilken dator eller enhet som helst med en webbläsare, vilket är särskilt praktiskt om din Raspberry Pi körs utan en direktansluten skärm och tangentbord.
Övervakning av systemresurser: Webmin kan hjälpa dig att övervaka systemresurser som CPU-användning, minnesanvändning och diskaktivitet i realtid.
Tjänsthantering: Du kan enkelt starta, stoppa och konfigurera systemtjänster och daemons via Webmin.
Hantering av användare och behörigheter: Det är enkelt att skapa, ändra och ta bort användarkonton samt hantera behörigheter.
Säkerhetsinställningar: Webmin kan hjälpa till med konfigurering av brandväggsinställningar och andra säkerhetsrelaterade uppgifter.
Uppdatering och pakethantering: Du kan hantera och uppdatera installerade paket och program varifrån Webmin.
Sammanfattningsvis gör Webmin det enklare att hantera din Raspberry Pi på ett effektivt sätt, speciellt för dem som föredrar ett grafiskt användargränssnitt framför kommandoradsverktyg.
För att installera Webmin på en Raspberry Pi behöver du följa några steg för att säkerställa att allt är korrekt konfigurerat. Här är en steg-för-steg-guide:
Förbered systemet:
Innan du börjar, se till att ditt system är uppdaterat. Öppna terminalen och kör följande kommandon:bashsudo apt update sudo apt upgrade
Installera nödvändiga paket:
Webmin kräver några beroenden. Installera dessa med kommandot:bashsudo apt install software-properties-common apt-transport-https wget
Lägg till Webmins repositorium till listan över paketkällor:bashsudo add-apt-repository "deb http://download.webmin.com/download/repository sarge contrib"
När installationen är klar kan du komma åt Webmin genom att öppna din webbläsare och gå till följande URL:texthttps://<din_Raspberry_Pi_IP-adress>:10000
Logga in med ditt användarnamn och lösenord för Raspberry Pi (ofta pi och dess lösenord).
Konfiguration av brandvägg (om nödvändigt):
Om du har en brandvägg aktiverad, se till att port 10000 är öppen för att tillåta åtkomst till Webmin.
Nu är Webmin installerad och redo att användas på din Raspberry Pi 😉
Vad är Unbound då? Jo, Unbound är en DNS-resolver som ofta används för att förbättra DNS-prestanda och säkerhet. Den kan också fungera som en reverse proxy i vissa scenarier.
En reverse proxy fungerar som en mellanhand för klienter som begär resurser från servrar. När en klient gör en begäran till en server via en reverse proxy, skickar proxy-servern begäran till en eller flera backend-servrar, hämtar svaret och returnerar det till klienten. Detta kan ge flera fördelar:
Lastbalansering: Reverse proxy kan fördela trafik mellan flera servrar för att optimera prestanda och tillgänglighet.
Säkerhet: Genom att dölja backend-serverars identiteter och skydda dem mot direkt åtkomst kan reverse proxy skydda mot attacker.
Caching: Den kan cacha svar från backend-servrar, vilket minskar belastningen på dem och snabbar upp svarstider för klienter.
SSL-offloading: En reverse proxy kan hantera SSL-tillämpningar, vilket avlastar backend-servrar och förenklar hantering av certifikat.
Centraliserad åtkomstkontroll: Du kan implementera säkerhetsåtgärder och autentisering på proxy-nivå, vilket gör det enklare att hantera.
Unbound är alltså som en reverse DNS-proxy för att förbättra prestanda, säkerhet och hantering av trafik mellan klienter och servrar.
Vad innebär det då om du t.ex. kör Pi-Hole som DNS? Om du anger t.ex. Google, OpenDNS eller någon av de andra DNS:erna som ligger fördefinierade i Pi-Hole så kommer de att kunna se vilka domänsökningar dina Pi-Hole:s blir använda för och kan logga dessa från din IP-adress. Kanske inte riktigt det du önskade av din ”privatisering” med Pi-Hole. Du vill ju att rot-DNS:erna på Internet skall tillfrågas, dessa kommer aldrig att ”intressera” sig för vad du gör… 😉 Då kan du med fördel installera Unbound på var och en av dina Pi-Hole-maskiner eller i en större uppsättning kan du ju dra igång två separata maskiner med Unbound som då kan få vara redundanta för varandra. Jag har valt att installera Unbound på var och en av de tre Pi-Hole:s jag har i mitt hemmanät.
På mina Raspberry Pi ser det ut såhär.
sudo apt install unbound -y
Efter en lyckad installation, editera (skapa) följande fil.
Efter detta, gå in i Pi-Hole:s konfiguration under Settings, sedan till DNS-fliken. Ta bort alla valda ”Upstream DNS Servers”, ange sedan en egen och skriv in ”127.0.0.1#5335” i rutan för ”Cusctom 1 (IPv4)”, spara konfigurationen.
Tittar du nu i Query Log så kommer du att se att localhost svarar på dina upstream-förfrågningar.
Att ha en händelselogg kan vara bra, förutsatt då att man fyller i den så snart man gör en ändring i sitt nätverk, på sina datorer, i sina trådlösa accesspunkter, ja … för allt. Varför då kanske du tänker? Jo, såhär …
Vi har ett gästnät i huset och i gästrummet över garaget, det hanteras av två accesspunkter varav den ena också agerar router vilken NAT:ar mellan gästnätets IP och en IP-adress som i sin tur har kontakt med en, för gästnätet, egen router som ansluter det hela till Internet, inget konstigt.
I början av vår semester fick vi en digital fotoram av några släktingar, denna behöver inget annat än en Internetförfindelse varför den lades upp via det trådlösa gästnätet, allt bra … utom att den då och då indikerade att den var ”offline” vilket var lite märkligt, inget som spelade någon roll kanske men det gnagde …
… och så var semestern slut, arbetsdatorn som också ligger på det trådlösa gästnätet startades upp och redan under första Teamsmötet hade jag problem med nedkopplingar, hackande ljud och andra märkliga fenomen …
Min arbetstelefon, som naturligtvis också ligger på gästnätet, visade på från 10-40 Mbps i Speedtest vilket är jättedåligt, ibland blev det helt 0 under korta perioder … och så kan man ju inte ha det. Kollade runt i WiFi-delen, inget konstigt, kollade routern mot Internet, inget konstigt, kollade min arbetsdator, inget konstigt och det skulle ju ändå inte förklarat varför telefonen betedde sig märkligt, nej, inget konstigt någonstans …
Jag för lite logg över saker jag ändrar i nätet och under spannet som vi pratar om, cirka fem veckor under semestern och första arbetsveckan, så hann det hända en hel del. Tog bort lite regelverk ur brandväggen på utgående router mot Internet, ingen skillnad. Ändrade tillbaka en mindre förändring jag gjort i WiFi-nätet, ingen förändring. Kom till sist fram till att alldeles i början av semestern adderade jag ett sekundärt IP-nät i den utgående routern mot Internet, på routern insida … men att ta bort detta krävde lite mer ändringar på insidan då det sekundära IP-nätet faktiskt användes men då detta var klart kunde jag ta bort det från den utgående routern och BAM, plötsligt var allt bra, flera hundra Mbps i överföringshastighet och en snygg och prydligt fungerande Internet-anslutning. Varför, ja det får jag fortsätta utreda men nu fungerar vårt gästnätverk igen, allt är frid och fröjd 😉 …
… och detta tack vare min logg över ändringar och när de gjorts … 🙂
Först och främst, detta handlar inte om hur eller vad du skall installera, jag förutsätter att du har paketen iptables samt iptables-persistent i din utrustning så att du kan texteditera /etc/iptables/rules.v4 eller .v6 för att göra ändringar 😉 …
Att lära sig, och inte minst förstå, IPTables är viktigt om du kör Linux, det är där du enklast beskriver vilka regler som skall gälla till och från din maskin samt även hur trafik som går genom den (routas) hanteras, vad som skall tillåtas, stoppas, adressöversättas (NAT) och så vidare …
IPtables består, lite grovt förklarat, av fem huvuddelar. Det är ”prerouting”, ”forward” och ”postrouting” för trafik som skall skickas (routas) genom din utrustning samt ”input” och ”output” istället för ”forward” om trafiken skall till någon av din utrustnings interna processer, t.ex. en webbserever.
Innan vi tar oss in i exemplen så tittar vi först på IPTables olika byggstenar.
Prerouting
Första steget när IP-paketen kommer in i IPTablesprocessen är vad som kallas Prerouting och här kan man t.ex. styra destinations-NAT, omdirigeringar med mera. Tänk bara på att om du styr om från en destinations-IP i det inkommande paketet till delprocessen till en annan destinations-IP eller kanske IP-port så är det denna man sedan får ange i påföljande delsteg … Klurigt kan det bli … 😉
Forward
I Forwarddelsteget arbetar man med vilken IP-trafik som skall ges lov att prata med andra IP-nät eller IP-adresser innan paketet når operativsystemets egen routingprocess, dvs. att själva omdirigeringen (routingen) hanteras inte över huvud taget av IPTables.
Postrouting
Efter att operativsystemets routingprocess hanterat eventuella vägval för IP-paketet så tar åter IPTables hand om det och nu hanteras det i delsteget som heter Postrouting, det är bland annat här man adressöversätter från intern privat IP-adress till en publik IP-adress på routern utsida, t.ex. mot Internet, så kallad SNAT (Source NAT).
Input
För hantering av inkommande IP-trafik mot den egna utrustningens interna processer använder man ett delsteg som heter Input och detta delsteg ligger efter Prerouting och före de interna processerna, det kan vara webbserver, SSH och andra tjänster som ligger aktiva i utrustningen och som väntar på anrop.
Output
För hantering av IP-trafik från den egna enhetens interna processer mot andra enheters IP-adresser så använder man delsteget Output.
Filter och NAT
Man delar konfigurationsfilen för iptables-persistent i olika grupper, dels för ”filter” och dels för ”nat”.
Exempel?
Ett exempel på en /etc/iptables/rules.v4 kan se ut såhär.
*filter
# Om inget annat sägs, kasta all trafik för Input och för Forward men tillåt allt i Output.
:INPUT DROP [0:0] :FORWARD DROP [0:0] :OUTPUT ACCEPT [0:0]
# Tillåt att all trafik som genereras från interna processer tillåts tillbaka in.
-A INPUT -m conntrack –ctstate RELATED,ESTABLISHED -j ACCEPT
# Tillåt SSH-trafik på IP-port 22 mot egna enheten.
# Kasta all trafik från internt IP-nät 192.168.123.0/24 mot annat internt IP-nät 192.168.100.0/23 oavsett protokolltyp
-A FORWARD -s 192.168.123.0/24 -d 192.168.100.0/23 -j DROP
# Tillåt att all trafik från interna IP-nät 192.168.100.0/23 och 192.168.123.0/24 mot Internet tillåts passera genom enheten, samt att returtrafik tillbaka från Internet skall tillåtas passera mot de interna IP-näten.
# I Postrouting, lägg in en source-NAT mot Internet för båda Interna IP-näten 192.168.100.0/23 samt 192.168.123.0/24. Istället för att ange en IP-adress på utsidan som ISP kan ändra, använd utsidans IP-adress genom interfacenamn, i det här fallet ”eth1”.
-A POSTROUTING -s 192.168.100.0/23 -o eth1 -j MASQUERADE -A POSTROUTING -s 192.168.123.0/24 -o eth1 -j MASQUERADE
Många är väl medvetna om att något märkligt händer då vi använder Google, Bing eller andra söktjänster på Internet, inte bara blir det svårt att sålla bland vad som är betalda annonser, vad som är betald placering och vad som är faktiska sökresultat utan dessutom börjar andra sidor som innehåller annonser visa massor av tips och förslag på det vi precis sökt på eller likanade produkter … När du använder söktjänster, utan ”kostnad”, så är det du som är produkten, det som säljs till andra är information om dig och dina, i det här fallet, sökningar på Internet.
Hur kommer du runt detta då? In kommer till exempel SearXNG!
Provsök gärna nedan och se hur dina sökresultat visas, klickar du på sökresultaten fungerar inte detta alltid som det skall … 😉 Vill du istället testa och använda sökproxyn fullt ut, gå till https://search.nordh.tech/ …
Det som är trevligt med SearXNG är att den lämnar ingen information om dig, din webbläsare eller något annat till de sökmotorer den hämtar information från. Sökmotorerna upplever var sökning du gör som om den kommer från en ny dators webbläsare, inget gammalt finns med och dessutom, resultaten som visas för dig är helt rena från annonser eller ”placerat” material. Inte minst det sistnämnda lär man sig snabbt att uppskatta …
SearXNG kan du intingen installera direkt i en dator eller via Docker, smaken är som baken och jag föredrar en ren installation. I mitt fall grävdes ytterligare en Raspberry Pi 4 med 8 GB minne fram ur skrivbordslådan. Kanske inget man tillhandahåller som en tjänst på Internet för allmänheten men för eget hemmabruk duger en Raspberry Pi alldeles utmärkt. Dessutom, med SearXNG, så får man möjligheten att välja resultat från ett flertal söktjänster på Internet, mer om detta längre fram, efter installationen … 😉
Det finns en uppsjö av installationsanvisningar på Internet, det är bara att söka efter dem men … detta är en lite speciell installation, väldigt få fungerar rakt av och att debugga dessa skript är inte det enklaste. Så jag skrev mitt eget lilla recept.
Installationsanvisning 202404 …
Ett tips, läs först genom samtliga installationspunkter och gör dig bekväm med installationen INNAN du börjar, det är många punkter men jag har, för att minska risken för att missa någon, valt att skriva dem en och en.
Uppdatera ditt OS.
sudo apt update
sudo apt ugrade
Du kommer att köra SerXNG under en annan användare så sätt upp denna.
… och ange lösenordet för användare ”Searx”. Att köra SearXNG under en annan användare än root/admin är ur säkerhetssynpunkt smart, det kan också vara fördelaktigt om man installerar i en virtuell miljö.
Logga in med den nya användaren för att fortsätta installationen.
su searx
… och ange lösenordet för ”searx”.
Byt nu katalog till /home/searx/
Som ”searx”, installera nu följande applikationer och beroenden, jag brukar ta dem ett i taget för full kontroll.
Jag startar med åtkomst till mjukvaruplattformen Github.
sudo apt install git
Sedan fortsätter jag med webbservern, i det här installationsexemplet NginX.
sudo apt install nginx
Brandväggen IPtables är redan förinstallerad men vill man vara säker, så visst …
sudo apt install iptables
För att på enklaste sätt göra det möjligt att spara sina brandväggsregler, och att ladda dem efter en om- eller uppstart så kan man använda sig av verktyget IPtables Persistent.
sudo apt install iptables-persistent
Vidare på ämnet säkerhet, Let’s Encrypt har en hanterare för sina gratiscertifikat så den installerar vi vilket enkelt ger oss SSL-certifikat för vår webbtjänst.
sudo apt install certbot
sudo apt install python3-certbot-nginx
Nu, när vi har alla applikationer SearXNG behöver installerade, kan påbörja lite grundkonfiguration.
Jag börjar med brandväggsregler för webbservern, ersätt <ditt ip-nät> med det som gäller för ditt nätverk.
Starta nu installationsskriptet med följande kommando.
sudo -H ./utils/searxng.sh install all
Hela installationsprocessen är till stora delar helt automagisk men du kan behöva svara ”Y” då skriptet efterfrågar svar på till exempel allt skall installeras och så vidare.
Som du sett, denna anvisning bygger på webbservern NginX för leverans av data till webbläsarna …
Då hela installationsskriptet körts utan några felmeddelanden så kan vi fortsätta till nästa dela av uppsättningen.
Konfigurera NginX
Skapa en ny konfigurationsfil för NginX under /etc/nginx/sites-available/searxng
include uwsgi_params;
uwsgi_param HTTP_HOST $host;
uwsgi_param HTTP_CONNECTION $http_connection;
# see flaskfix.py
uwsgi_param HTTP_X_SCHEME $scheme;
uwsgi_param HTTP_X_SCRIPT_NAME /searxng;
# see limiter.py
uwsgi_param HTTP_X_REAL_IP $remote_addr;
uwsgi_param HTTP_X_FORWARDED_FOR $proxy_add_x_forwarded_for;
} }
Efter ”server_name” anger du det fulla FQDN för just din server, använd det namn som medger åtkomst från Internet så att du kan skapa ett publikt och verifierat SSL-ceritifikat i följande steg.
Efter ”location” anger du om din sökmotor skall vara åtkomlig direkt i rotten av ditt FQDN eller så anger du en subdomän, till exempel ”location /searxng”. Jag gillar att bara behöva skriva URL:en utan subdomän/sökväg.
Då detta är gjort, ta bort ”location” i den NginX-fil du har under /etc/nginx/sites-enabled/.
För att sätta upp ett certifikat för din nya SearXNG-server, se till att webbservern är nåbar från Internet på port 80 och 443, hur just det görs i din miljö överlåter jag till dig … 😉
Då åtkomst till webbservern från Internet är klart kör du Let’s Encrypts skript.
certbot –nginx yetanothersearxserver.xyz
Här anger du återigen ditt FQDN för just din server.
Du behöver också sätta upp en symlink för NginX mot serverns ”sites-enabled”-mapp.
Då detta är klart, starta om webbservern och SearXNG.
sudo systemctl reload nginx sudo service uwsgi restart searxng
Nu kan du logga ut som användare ”searx”, du är nu klar …
exit
Vill du enbart ha söktjänsten tillgänglig internt, stäng åtkomsten till servern i din Internetrouter, brandvägg eller vad du nu använder …
… och grattis, du har nu en egen söktjänst!
Första gången … 😉
När du nu öppnar upp din söktjänst för första gången, passa på att klicka på kugghjulet uppe till höger på söksidan, jag föreslår att du väljer att söka sidor på alla språk om du till exempel söker mycket med engelska ord. Låter du sökskriptet själv avgöra vilket språk du använder får du ofta sökfel om inte svenska hemsidor innehåller de engelska sökord du anger. Välj också vilka sökmotorer du föredrar att hämta information från …
Dina inställningar sparas lokalt i en liten cookie lokalt men/och är inget som delas med någon annan …
Som sagt, en lite besvärlig installation kanske men det ger dig ett fantastiskt verktyg som inte gör din information eller dina sökord säljbara till andra parter på Internet.
Håll din installation uppdaterad
Det gör du som användare ”searx” …
su searx
Ange lösenordet du gav denna användare.
Gå till SearXNG:s mapp.
cd searxng
Skriv sedan följande för att uppdatera din installation.
sudo -H ./utils/searxng.sh instance update
Då uppdateringsskriptet är klart kan du starta om NginX och SearXNG.
sudo systemctl reload nginx sudo service uwsgi restart searxng
Logga ut användare ”searx”.
exit
Sedan kör det vanliga …
sudo apt update
sudo apt upgrade
Nu tror jag att jag fått med allt som är värt att skriva om, hoppas du har glädje av din nya säkra söktjänst.
Hur övervakar du ditt nät? Hur vet du vem som lyckas ansluta mot ditt nät, fram för allt via wifi? Hur vet du om dina enheter fungerar som de skall, dygnet runt, alltid?
De flesta normalanvändare i sina hem har ingen aning, inte ens de som till vardags kanske arbetar inom IT-branschen, kanske inte ens de som arbetar med IT-säkerhet … De kommer hem på kvällen, startar och ansluter sina personliga laptops, datorer, plattor, ja … allt vad som finns i hemmet. Utan att veta vad som mer ansluter rent av? Jag tror, utan att egentligen veta, att de flesta egentligen har väldigt dålig koll på sina hemnätverk. Kanske har man någon tjänst igång i sin Internet-router för att begränsa sina hormonstinna tonåringar för att titta på den värsta porren men det kommer de nog runt ändå … 😉
Hur håller jag koll då? Nja, kanske bättre än de flesta …
Två wifi
Minst två wifi-nät till att börja med! Man låter inte vänner och bekanta ansluta sig mot samma wifi-nät som man själv har sina enheter i? Varför då tänker du, det blir ju enkelt eller hur? Nja, men du vet inte vad deras enheter gör i ditt nät, vilka applikationer deras enheter kör, du vet kanske inte ens hur ärliga dina vänner och bekanta är, eller hur väl de sköter om sin egen IT-säkerhet i form av antivirus, de har kanske lyckats få spionprogramvara i sin enhet, den enhet du så enkelt och fritt från fördomar tillåter att ansluta till ditt eget nät. Nja, inte för mig! Här har vi ett internt wifi med eget SSID för internt bruk och ett wifi med sitt SSID för okända enheter, och dit hör också arbetsdatorer, arbetstelefoner och ja, allt som vi inte själva har koll på. Wifi är ju dessutom lite speciellt då man inte behöver fysisk tillgång till nätet utan kan sitta hos grannen och försöka hacka sig in om man vill.
Ok, så minst två skilda wifi, kanske tre om man vill skilja bort även alla IoT-saker, dvs. smarta strömpluggar, nätverksanslutna värmepannor, ja allt som inte är telefon, platta eller dator i din egen ägo. Här har jag personligen gett upp lite, det är ett väldans pill med detta om man använder Apple-grejor, Apple Homekit och så vidare. Finns säkert någon som tycker annorlunda men som sagt, här gav jag upp så jag kör faktiskt IoT tillsammans med våra övriga nätverksanslutna datorer, plattor och telefoner.
Pi.Alert
Hur ser jag då vad som är anslutet till vårt nätverk? Jo, både i vårt interna nät såväl som i vårt gästnät kör jag Pi.Alert, har två Raspberry Pi, en 4 och en liten Zero 2W, som hela tiden ligger och ARP-skannar både det interna nätet samt vårt gästnät med en minuts upplösning. Det innebär att vi efter en minut direkt ser om någon varit, eller är, ansluten, vilken MAC-adress vederbörande har, vilken IP den tilldelats samt oftast vilken tillverkare som ligger bakom MAC-adressen. Skulle det vara en okänd enhet så blockerar jag direkt denna MAC-adress i det trådlösa nätverk den anslutit mot, kan vara i gästnät eller internt nät.
Pi.Alert finns i lite olika smaker, man kan installera det direkt i t.ex. en Raspberry Pi men det finns också förpackade Docker-installationer, välj den som passar dig. Jag använde två stycken Pi’s som jag hade liggande.
Pi-Hole
Jag har redan tidigare beskrivit min Pi-Hole-uppsättning och allt där stod stämmer för mig fortfarande idag, dock har jag kompletterat med ytterligare en, för ren avlastning, som ”pratglada” övervakningssystem kan använda för eget bruk.
Våra två Pi-Hole agerar dels filtrerande DNS-servrar får vi blockerar anrop mot siter som är ”kända” för reklam, aktivitetsspårning, skadlig kod med mera. Den lista som medföljer från början är oftast bra nog för de flesta men som sagt, det går att lägga till fler beroende på vad man mer önskar ta bort. Vi kör också ett 20-tal specifika domän- och regular expression-filter för att slippa ytterligare sajter, bl.a. med spårning och reklam … och vips försvann. all reklam från TV4 på våra Apple-TV (ej live), fungerar dock inte om du tittar via webbläsare … 😉
Våra Pi-Hole’s agerar också DHCP-servrar och delar ut IP-adresser i varsin del av ett /23-nät vilket omfattar 512 Ip-adresser. På så sätt kan de agera fullständig backup för varandra om så behövs.
Uptime Kuma
Hur vet jag då att våra olika enheter är uppe och fungerar alltid, hela tiden, alla årets dagar då?
Det finns en uppsjö av övervakningsvarktyg, alla med sina fördelar och nackdelar, det senare oftast i form av väldigt komplex uppsättning och konfiguration, man måste verkligen vilja få det att fungera liksom, tar massor av tid, något jag inte känner att jag har.
Efter mycket letande och efter måååånga testinstallationer fastnade jag för ett enkelt och lättkonfigurerat gratisverktyg som heter Uptime Kuma. Detta finns, precis som allt annat, i flera olika smaker, för Docker eller för ”bare metal”, det senare föll mig i smaken och ytterligare en Raspberry Pi 4 grävdes fram ur lådan. I samma Pi 4 installerade jag ytterligare en Pi-Hole för att avlasta de två som alla andra enheter använder, insåg att Uptime Kuma, med pollning var 20:e sekund, kör ca 100.000 DNS-förfrågningar per dygn. Med hjälp av en Pi-Hole kunde jag cache det stora flertalet av dessa och med en regular expression kunde alla, för mig onödiga, IPv6-förfrågningar helt blockeras.
Uptime Kuma kan också konfigureras för att skicka larm via olika tjänster samt via epost.
Min sammanfattning
Är detta för alla då? Nej, tyvärr inte men det kanske borde vara det? Var går gränsen för det egenansvar, och även legalt och juridiskt ansvar, man har som t.ex. förälder i ett hem med sjövilda tonåringar? Hur skall man förhålla sig till det faktum att man utvecklat Internatåtkomst till ett väldigt farligt verktyg om det hamnar i fel händer, jag kan likna det vid att en jägare lägger ut alla sina vapen på farstun, skarpladdade, och så hoppas man att grinden i staketet håller alla illasinnade borta från dem. Huhh …
Så för oss innebär det
Separata wifi-nät, minst två, där gästanslutningar inte blandas med de egna enheterna.
Upptäck okända, eller kända för den delen, anslutningar mot ditt eller dina nätverk.
Minska åtkomst till oönskade sajter med reklam, skadlig kod, spårning och ja, vad du vill med hjälp av Pi-Hole.
Monitorera dina lokala enheter som alltid skall vara igång med Uptime Kuma.
Jag säger bara Tailscale! Det är ju lösningen på alla världens utmaningar! I alla fall i min närhet, sedan förstår jag om det inte är lösningen på krigen i världen eller svält …
…men för mig var det i alla fall en riktigt bra grej. I alla fall om man, som jag, har enheter man vill komma åt oavsett vilket del av världen man befinner sig i eller vilket nät man ansluter sin dator, platta eller telefon mot.
Vad är då Tailscale egentligen?
Egentligen är det samma sak som man själv kan sätta upp med Wireguard VPN i botten för att säkra sina kommunikationskanaler, ”end to end”. Ovanpå det anpassar man brandväggsöppningar med iptables, man hanterar DNS för sitt separata nät … och så vidare. Eller så skapar man ett konto hos Tailscale, man installerar en liten klientapplikation i sin enhet som antingen kan vara baserad på OS så som Linux, Mac, Windows, iOS, eller Android. Då applikationen startats så sköter den allt och ansluter respektive enhet, förutsatt att den är ansluten mot Internet, mot Tailscales molntjänst. Där får respektive enhet man ansluter en 100…..-adress, och DNS-namn i den nya domänen du tilldelats, och host routing mot de andra enheterna som anslutits mot samma konto. Super smart och egentligen ganska enkelt om man bryter ned totallösningen i sina delkomponenter. Smart.
Vill man sedan göra det ännu smartare så kan man, för de enheter man inte kan, får eller vill installera själva Tailscaleapplikationen på istället välja att routa samman det nya 100.-nätet med det egentliga IP-nätet enheterna sitter i med sina riktiga IP-adresser. Låt en av dina enheter, med Tailscale installerad, annonsera ut routen för det riktiga IP-nätet och sedan agerar den proxy för trafiken dit. Välj gärna en enhet med lite kapacitet, framför allt vad gäller genomströmning av data på nätverksnivån. Fungerar klockrent, kräver ett kommando på enheten med Tailscaleapplikationen och ett klick i dina inställningar via webben. Klockrent!
Vad kan man mer hitta på? Tja, du kan ju enkelt (allt med Tailscale är enkelt!) peka ut en av sina Tailscaleanslutna enheter som ”exit node” vilket innabär att du, var du än är i världen, kan låta din nätverkstrafik gå krypterade till din ”exit node”-enhet och sedan ut mot Internet via denna enhet där denna då agerar proxy och det ser ut som om du kommer från ditt ”hemmanät”. Har du t.ex. en server hos Akamai i Chicago kan du enkelt installera Tailscale på denna, ange den som ”exit node” och sedan kan du i dina andra Tailscale-anslutna enheter välja, om du vill, att använda denna väg ut och all trafik kommer då att komma ut på Internet via en IP-adress registrerad i Chicago. Ett kommando och ett klick, det bara fungerar.
Inte ofta jag blir helt lyrisk över saker men denna lösning, denna sammansättning över annars ganska pilliga lösningar, den tilltalar mig mycket!
Och vet du vad? Den är helt fri från kostnader upp till, i skrivande stund, 100 (hundra!) enheter anslutna med Tailscaleapplikationen installerad. Och javisst, upp till tre användare kan dela på åtkomsten till dessa enheter …
Dessutom kan du med ACL:er styra vem och vilka som skall få göra vad, du kan låta Tailscale hantera all SSH-inloggning mot dina enheter och mycket mer.
Nu skall jag fortsätta sätta upp mitt nya VPN-moln … 😉
Är du på gång att uppgradera från Debian 11 Bullseye till Debian 12 Bookworm i din server? Jag har gjort det i mina Debianmaskiner enligt följande process med gott resultat.
Först, se till att uppdatera din Debian 11-installation.
sudo apt update
Sedan
sudo apt upgrade
Säkerställ att allt uppdateras korrekt utan felmeddelande.
Redigera sedan din källista som styr vilken version du arbetar med.
sudo nano /etc/apt/sources.list
Redigera så att du byter alla ”bullseye” mot ”bookworm”.
Med Debian 11 Bullseye.
deb http://deb.debian.org/debian bullseye main contrib non-free deb http://security.debian.org/debian-security bullseye-security main contrib non-free deb http://deb.debian.org/debian bullseye-updates main contrib non-free
Efter redigering inför uppgraderingen.
deb http://deb.debian.org/debian bookworm main contrib non-free deb http://security.debian.org/debian-security bookworm-security main contrib non-free deb http://deb.debian.org/debian bookworm-updates main contrib non-free
Spara filen med samma namn som du öppnade den med.
Sedan startar du uppgraderingen.
Först
sudo apt update
Sedan fortsätter du med
sudo apt upgrade –without-new-pkgs
Det kan bli flera hundra paket som skall ersättas med nya, svara Ja på om du vill uppgradera, svara Nej på du får frågor om att ersätta uppdaterade konfigurationsfiler, läs den information som kommer och som du måste stänga med ”q”.
Därefter uppdarerar du själva operativsystemet.
sudo apt full-upgrade
Starta om din dator, kontrollera att allt fungerar som det skall under uppstart och i relevanta loggar.
Redigera sedan källistan igen.
sudo nano /etc/apt/sources.list
Addera ”non-free-firmware” till den översta raden.
deb http://deb.debian.org/debian bookworm main contrib non-free non-free-firmware deb http://security.debian.org/debian-security bookworm-security main contrib non-free deb http://deb.debian.org/debian bookworm-updates main contrib non-free
Återigen skall vi uppdatera installationen.
sudo apt update
sudo apt upgrade
Skulle några paket hållas tillbaka och inte gå att uppdatera, kopiera de paket som hålls tillbaka och addera dom med följande.
sudo apt install <de paket som hålls tillbaka, så många du behöver separerade med mellanslag>
Det kan också hända att vissa paket inte längre används eller är utraderade, ta bort dessa med följande kommando.
Många är väl de som fått solceller installerade på sina tak senaste tiden, inte minst sedan Rysslands invasion av Ukraina hjälpte till att driva energibriserna i höjden under 2022. Vi var inte en av dem, vi köpte istället ett nyare hus mitt i Skåne med solceller redan installerade … 🙂
Ovanpå vårt dubbelgarage finns det en övernattningslägenhet, och ovanpå denna sitter solcellspaneler om ca 10400 kWh monterade på yttertaket. Märket på dessa är för oss okänt, däremot är de kopplade till en växelriktare av fabrikat Solis. Enligt tidigare ägare fungerade anläggningen som den skulle men de hade ingen egentlig kontroll över den, appen i telefonen hade sedan länge slutat fungera och man visste helt enkelt inte …
I underkant av växelriktaren satt dock en extra enhet med antenn så att man skulle kunna kommunicera med växelriktaren på något sätt var jag dock övertygad om. Hittade enhetens MAC-adress på en etikett, spoofade denna mot en IP-adress i min dator och kom på så sätt åt enheten, bytte lösenordet och satte upp den mot husets WiFi-nät.
Skulle sedan ansluta växelrikteraen mot SolisCloud, den var dock redan registrerad för en annan användare, fick tag i en trevlig kille på Solis support i Sverige som hjälpte mig att avregistrera den så att jag kunde få tillgång till anläggningen på mitt Soliskonto. Allt frid och fröjd …
… trodde jag men då visade det sig att vi tappade ca 30-40% av vår produktion på grund av för hög spänning på nätägarens sida. I Sverige tillåter vi 230V +/-10% så mellan 207V och 253V skall det vara men vår växelriktare var dels inställd på max 250V samtidigt som vår nätägare inte verkade ha koll på spänningsnivåerna ute på vår sina där vi dessutom är många som mikroproducerar, vi driver därför upp spänningen för varandra. Efter ett antal ärenden hos nätägaren samt en justering av maxvärdet i vår växelriktare så blev vi av med alla våra larm och produktionen ligger sedan dess en bar dag på mellan 70 och 75 kWh.
Hur ser då ekonomin ut kanske du undrar? Tja, vi har ju ingen direkt kostnad för vår solcellsinstallation så vi behöver inte tvunget få en intäkt från dem men under april till mitten av juli 2023 har vi sett en besparing direkt på elräkningen om ca 6000 kr och sedan tillkommer den minskade skatten om 60 öre per såld kWh vilket adderar ytterligare ca 2200 kr för samma period så ca 8200 kr totalt för lite dryga tre vår- och sommarmånader. Skall bli intressant att följa upp detta på helåret men definitive finns det pengar att spara …
Det finns en uppsjö med backup- och säkerhetskopieringsverktyg och applikationer för din Mac men behövs de verkligen? Efter att ha provat ett antal olika, med blandat resultat och till en viss kostnad då dessa sällan är gratis i IOS-världen, bestämde jag mig för att testa Rsync istället.
Rsync är ett litet datorprogram som kopierar, flyttar, raderar filer utefter dina önskemål. Du hittar det i Unix-, Mac- och Windowsvärlden, oftast medföljer det ditt OS, och är dessutom jättesnabbt samt väldigt kraftfullt.
En sak dock, innan du använder Rsync för att kopiera filer till eller från en disk som kanske inte är monterad, t.ex. en nätverksdisk eller volym, montera den innan du kör dina kommandon eller skript.
Ett exempel på syntax för att kopiera filer hittar du här.
Detta kommando startar Rsync, -rt anger att programmet skall arbeta rekursivt (-r)ned genom alla underkataloger och spara filernas tidstämplar (-t) vilket rekommenderas, jag vill inte kopiera filer vars filnamn börjar med ”.” vilket normalt indikerar dolda filer varför dessa exkluderas. Dessa har man ibland inte ens läsrättigheter till beroende på var i diskens katalogstruktur du läser så oftast är det enklast att exkludera dessa, de är ju normalt inte del av dina arbetsfiler. –progress säger bara att jag vill se vad som händer vid kopieringen i mitt terminalfönster, sedan är det bara källa och destination som anges.
Med ovanstående kommandorad så säkerhetskopierar man allt. Vill man däremot radera filer från sin backup då de tagits bort från källbiblioteket kan man naturligtvis göra detta, bara addera –delete sist i kommandot enligt nedan.
Nu har jag, kanske för gott lämnat Windowsvärlden, i alla fall nästan 😉
Under många år, ja … sedan mitten av -80-talet, har jag kört Microsoftbaserade operativsystem. Från allra första början var det Microsoft Dos … någon version 2…. något vill jag minnas, gärna kompletterat med Norton Commander för enklare filhantering. Runt ’88-’89 vill jag minnas att MS Windows kom in i bilden, allt som ett skal utanpå Dos, tror den första Windowsversion jag kom i kontakt med var 3.0. Från den dagen har det funnits MS Windowsbaserade datorer i min ägo, det har också till och från (mest från) funnits en och annan Linuxbaserad dator i huset men aldrig som mer än test och lek liksom.
Nu är det dock helt annorlunda. Dels kör jag Mac OS på min laptop, vilken också agerar ”stationär” dator, vilket i sig är en välutvecklad Linuxdistribution, och dels har jag nu installerat Debian utan något grafiskt gränssnitt, bortsett från det textbaserade gränssnittet då, på samtliga av familjens servrar. Eller ja, mina servrar för ”familjen” har ingen koll på detta ändå 🙂
Vår gamla filserver, en Dell Power Edge T20, började bete sig illa, den gick inte heller att uppdatera till Windows 11 och till slut hittade jag att en 8GB minnesmodul höll på att fallera, Windows uppförde sig ”trasigt” även efter att minnesmodulen plockats ut, vilket reducerade mängden minna markant i servern, och då började fundera … på att installera om den med Debian istället och komplettera med Open Media Vault för fildelningen. Jag passade också på att plocka ut två gamla diskar, med över tio år på nacken, men behålla en nyare 2TB och en 3TB-disk samt komplettera med en 256GB SSD för operativsystemet. Sagt och gjort, allt fungerade rakt upp och ner efter installation och uppatchning, lite gamla kunskaper dammades av … och vår gamla filserver lever igen och mår jättebra, är nog lika snabb som innan med tanke på att de mekaniska diskarna som sitter i inte är de snabbaste i världen … men i sina bästa stunder kan man skriva eller läsa runt 800 Mbps vilket är helt ok.
Jag tycker dessutom om att ha backup på backup så jag har, i andra ändan av huset, ytterligare en liten(!) filserver för backup bestående av en Raspberry PI 4 med 8GB minne och en 5TB USB-disk ansluten. Denna lilla anrättning kör Raspbian (Debian) med Open Media Vault utanpå, fungerar klockrent men med lite sämre prestanda än den ”stora” filservern. Men för ändamålet är det helt ok!
Mina två DNS- och DHCP-servrar har jag beskrivit tidigare, fortfarande två Raspberry PI 4 som kör Raspbian (Debian), båda med 8GB minne, den artikeln hittar du här …
Vad har jag mer då? Jo, min VPN-server som också beskrivits tidigare här, en Raspberry PI 4 med 4GB minne, som tillåter OpenVPN in mot vårt nät från våra bärbara datorer, plattor och telefoner, för den händelse att man behöver det vid resor …
… och javisst, min test- och lekwebbserver som också den kör Raspbian (Debian) kompletterat med Apache2 (webbserver), PHP av senare snitt och MariaDB som MySQL-server. Till det körs SSL via Lets Encrypt-certifikat, PHP Myadmin är också installerat för databashantering … och all data ligger på en ansluten USB-disk, 2TB tror jag den är …
Japp, så ser min IT-värld ut just nu och att gå från Windowsmiljön till en mer Linuxorienterad har varit lättare än jag trodde, det har inte varit några problem alls … om man bortser från första veckorna då man labbade och testade mycket, vilket i sig innebar ett par söndertrasade installationer men efter det, smooth sailing …
… utom för att köra MS Visio, en mjukvara jag inte lyckas hitta någon ersättare för i Mac-miljön och som jag inte vill/kan leva utan. Vad gör man då? Jo, installerar Parallels på sin Mac, kör en virtuell Windows 11 och i den kan jag sedan utan problem installera min Visio. Så nästan lämnat Windowsmiljön är nog närmre sanningen 😉
Nu när pandemin inte längre skall räknas som en samhällsfarlig sjukdom så är det dags att kanske ta sig ut och resa lite igen? Även med allt det hemska som händer i vår omvärld, och då tänker jag på Rysslands angrepp och krig i Ukraina … Helt galet och jag är väldigt arg på det ryska folket!!! Men nu var det inte det som denna artikel skulle handla om …
När man skall ut och resa så kan det finnas tillfällen då man skulle behöva komma åt sitt hemmanät, kanske för att kunna komma åt sina servrar och andra system man har där hemma? Eller om man får problem med banken, Paypal eller liknande där utländska IP-adresser kan innebära total blockering av banktjänsterna och … ja, det innebär problem.
Då behöver du ett VPN, Virtuellt Privat Nätverk (Virtual Private Network), för att med din datot, platta eller telefon komma åt dina enheter där hemma precis som om du satt i ditt hus, ansluten till ditt WiFi eller ditt trådade nätverk.
Det finns självklart utrustningar att köpa, ibland kan du använda din hemmarouter eller så finns det andra lösningar, och det är en annan lösning detta skall handla om.
Börja med en liten enkortsdator, en Raspberry Pi 4 med 4-8 GB minne, ett micro-SD på 32-64 GByte, ett kylande skal och en USB-laddare som kan ge minst 3A. Det är vad du behöver och trots att dessa små datorer är svåra att komma över just nu så går det, antingen genom att ge ett par hundralappar över nypriset på t.ex. Blocket eller genom att vänta på sin tur i de långa kölistorna handlarna har. Med allt, räkna ca 1500-1700:- för en komplett uppsättning med oöppnade grejor.Vad gäller skal rekommenderar jag ett skal från Corsair, helt otroligt vad den går svalt i detta jämfört med andra lösningar.
När man har all hårdvara, installera Raspberry Pi Imager på din dator, ladda ner en 64-bitars version av Raspberry Pi OS och välj Lite-versionen, du behöver inget grafiskt gtänssnitt och dessutom tror jag OpenVPN vägrar installera sig på ett OS med just ett grafiskt fränssnitt … 😉
Starta upp maskinen, logga in i den och sätt en fast IP-adress, din nätmask och dina DHCP-inställningar. Det viktiga här är den fasta IP-adressen …
Installera sedan OpenVPN.
curl -L https://install.pivpn.io | bash
När installationen är klar, passa på att kolla så att allt är uppdaterat.
sudo apt-get update
sudo apt-get upgrade
sudo pivpn update
… och sedan till sist …
sudo reboot
Det enda som egentligen sedan behövs, utom att lägga upp användare är att begränsa paketstorleken och jag rekommenderar något mindre paket än 1380 Byte, har provat från 1000 Byte till 1380 Byte och inte kunnat mäta någon större prestandaskillnad. Har därför valt 1300 Byte för min uppsättning.
Man gör detta i både server- och klient-konfig.
I /etc/openvpn/server.conf lägger man till raden
mssfix 1300
Samma gör man i klient-konfig.
I server-konfig kan man också välja om man vill ha en så kallad ”split tunnel” där endast den trafik man vill ha över tunneln går där medan all annan trafik går ut via den lokala anslutningen mot Internet eller om man vill ha att all(!) trafik skall hanteras över VPN-tunneln.
Spara filen när du är klar, du kan sedan börja lägga upp användare, förslagsvis en konfiguration per uppkopplad enhet, till exempel ”anders-ipad” och liknande, en per enhet alltså.
pivpn add
Ange sedan namn, lösen med mera. När du är klar får du en färdig konfigurationsfil som du kan importera i en OpenVPN-klient som du väljer. Fungerar KANON!! Men addera
mssfix 1300
till denna fil också innan du importerar den i din OpenVPN-klient.
Prestanda då? Jag kör med att skicka all trafik via VPN:et när jag är uppkopplad, får oftast mellan 60-100 Mbps om den lokala Internetanslutningen tillåter det, annars blir det så mycket som Internetanslutningen medger,
Detta måste vara en av de älsta nyheter jag skrivet om, någonsin!
Raspberry Pi, den lilla enkortsdatorn, måste ha funnits ett 10-tal år nu och vad jag vet togs den ursprungligen fram för man skulle ha ett billigt alternativ för de som ville lära sig programmera och utveckla applikationer i en enkel och kontrollerad miljö.
Det är säkert många som använder den för sitt ursprungliga användningsområde men det är nog många fler som använder den för att sätta upp små och smarta funktioner i sitt hem, på arbetsplatser och ja, faktiskt överallt där man behöver en liten men, idag, ändå kraftfull och kompetent liten dator. Utmaningen idag är väl närmast att den är slut hos alla butiker och det finns dåligt med leveransdatum för när nya enheter kommer.
Vad kan man då ha den till? Nu för tiden är det en ganska enkel uppgift att få igång datorn med lämpligt operativsystem. För min del använder jag Raspbian, en distribution baserad på Debian, vilket fungerar bra och är enkelt att ladda ner på sitt micro-SD via mjukvaran Raspberry Pi Imager. Väljer man någon av standardversionerna så kommer din lilla Pi att boot upp en vanlig desktop med ett fullt fungerande grafiskt gränssnitt. Vill du köra 60 Hz på din(a) 4K-skärm(ar) så måste du ange ”hdmi_enable_4kp60=1” någonstans i /boot/config.txt då det annars endast blir 30 Hz vilket gör att t.ex. musrörelser blir lite hackiga.
För grafiska tillämpningar är den lilla datorn ingen raket precis men det fungerar. Skall du däremot surfa, kolla mejl ocj kanske sköta lite officeuppgifter med t.ex. OpenOffice så är det fullt möjligt.
Vad jag använder mina små Pi:s till?
Jo, först och främst så kör de DNS- och DHCP-funktioner i nätverket här hemma, kör Pi-hole vilket ombesörjer båda delarna. Pi-hole används framför allt för att slippa en massa reklam samt minska olika mjukvarors möjlighet att komma åt sina spårningstjänster online där de annars sparar en uppsjö av info om våra förehavanden på nätet. Reklamen på sajter som expressen.se, aftonbladet.se och liknande försvinner helt. En annan bonus är att allt material man streamar från till exempel tv4play, viafree och andra helt försvinner.
Dels kan man som sagt enkelt blockera reklam, man kan också addera valfritt antal så kallade AdLists vilka man hittar på nätet, sök bara efter ”Pi-hole, AdList och 2022” så hittar du mängder med hänvisningar till olika listor men, som vanligt, är det lätt att få hybris och kasta in alla och till sist blockar man miljoner sajter men då börjar man också få en hel del problem med funktioner man kanske ändå vill ha att fungera. Jag kör med den standardlista fom finns fördefinierad och sedan lägger jag till följande vilka är bra för svenska sajter.
Med dessa, totalt tre listor, så ligger man och blockerar runt 100.000 olika DNS-uppslag, vill man blocka porr, krig, hackersajter med mera så finns det listor för detta också, du kan också skapa egna listor om du vill, det är vanliga textfiler så det är inget konstigt alls.
Utöver listorna så kan/bör man addera ett antal olika blockeringar baserade på uttryck i DNS-uppslagen. Dessa anges med fördel som regular expressions (vetifasen vad det heter på svenska) vilket också brukar uttryckas som ”regex”. Mina är som följer och du kan, om du vill, kopiera in dom i konfigen, alla på en gång.
Vitlistade DNS-uppslag
(.|^)apple.com$
(.|^)icloud.com$
(.|^)analytics.google.com$
(.|^)google-analytics.com$
(.|^)apple-dns.net$
(.|^)officeapps.live.com$
(.|^)microsoft.com$
(.|^)fwmrm.net$
(.|^)youtube.com$
(.|^)adobe.com$
(.|^)postnord.com$
Svartlistade DNS-uppslag
^(.+[-.])??adse?rv(er?|ice)?s?[0-9][-.]
^(.+[-.])??m?ad[sxv]?[0-9][-.]
^adim(age|g)s?[0-9][-.]
^adtrack(er|ing)?[0-9][-.]
^advert(s|is(ing|ements?))?[0-9][-.]
^aff(iliat(es?|ion))?[-.]
^analytics?[-.]
^banners?[-.]
^beacons?[0-9][-.]
^count(ers?)?[0-9][-.]
^pixels?[-.]
^stat(s|istics)?[0-9][-.]
^telemetry[-.]
^traff(ic)?[-.]
^track(ing)?[0-9]*[.-]
Jaha, är det bara att köra på nu då? Nja, för att man inte skall gå i taket med antal DNS-förfrågningar och för att Apple Private Relay, Apples nya anonymiseringstjänst, skall fungera bra i nätet så behövs ytterligare en sak …
I filen /etc/pihole/pihole-FTL.conf lägger jag till följande rader.
RATE_LIMIT=0/0 BLOCK_ICLOUD_PR=false
Efter allt detta, kör så det ryker … 😉
Tillagt 20240811: Se också om hur man med fördel kan köra Pi-Hole tillsammans med Unbound för ännu bättre privatliv på Internet …
Sugen på att kunna ansluta din iPhone till din bilstereoenhet utan kabel? Då kan jag ha en lösning för dig …
Nyligen hittade jag CarlinkIt 3.0 nedsatt till $99 plus frakt och lite tull, moms och andra importavgifter. Adderade ihop till en $150 innan jag hade den i min hand men ändå bättre än ett utgångspris på $179 som det var för ett tag sedan.
Hur som helst, den dök ner i min brevlåda, packades snabbt upp och anslöts till bilen … typ … men det visade sig inte vara det självspelande piano jag trodde- Det var ju dock lite roligt ändå, nu fick amn ju sätta sig in i detta ett tag …
Bra hjärngymnastik!
Först fick man lösa det med anslutningsproblematiken. Var gång man ”kallstartade” alltihop, dvs. slog på tändningen i bilen så att man strömsatte uttaget som CarlinkIt var ansluten till så visade det sig att CarlinkIt vaknade till liv långt mycket snabbare än bilen och dess huvudenhet varpå iPhonen började jämra sig över att ”denna enhet stöds inte” eller motsvarande och hade det börjat var resten dömt att aldrig komma igång. Det man kunde göra då, medan bilens tändning fortfarande var igång, var att dra ut kabeln ur CarlinkIt och sedan återansluta den … och vips fungerade återanslutningen. Ok, så hur kommer maN åt inställningarna i CarlinkIt då?
När du väl är ansluten och allt ser bra ut, gå till 192.168.50.2 i din telefons webbläsare, den telefon som alltså är ansluten till CarlinkIt. Ingen inlogging krävs, ändra värdet för fördröjning till t.ex. 15-20 sekunder, inställningen sparas så snart du klickar på något annt utanför textrutan, stäng av allt och prova igen. Detta var knepet för att få min anslutning att fungera perfekt var gång, om än att det tar 15 sekunder längre tid att starta upp och få Carplay på skärmen.
Vad händer egentligen då? I telefonen måste du ha både Blåtand och WiFi igång, det första CarlinkIt gör är att ansluta sig mot din telefon via Blåtand, där skickar den information om WiFi som telefonen skall ansluta sig mot och resterande kommunikation sker via WiFi med mycket högre hastighet än vad Bluetooth klarar.
Ok, så nu ansluter sig allt, var gång och utan problem, allt väl eller hur? Nope …
Apple Music fungerade fint, ingen direkt fördröjning att prata om men GPS-mjukvaran Waze då? Inte sååå bra, hade problem med hängningar, Waze frös helt och andra problem och det spelade ingen roll om jag hade Waze i aktivt förnster på telefonen eller ej, hela tiden en massa strul!
Satte mig och gick genom intällningarna på min iPhone, en efter en, som hade med Waze att göra
Under Allmänt och tillåtna appar i bakgrunden tillät jag Waze.
Under Integritet och platstjänster till jag Waze att alltid använda platstjänsterna.
Efter detta har jag inte haft fler problem och allt verkar snurra på bra tillsammans med min Volkswagen / Skoda-enhet.
QR-koden kom till i under mitten av 1990-talet i Japan, först hos ett dotterbolag till Toyota för att hålla koll på bilar och bildelar, innan idén spreds över världen. Själva kodsystemet är tacksamt då det kan innehålla väldigt mycket data och idag, med till exempel moderna smarta telefoner, så är det inbyggt i kamerafunktionen eller i olika appar, t.ex. i Swish, Bank-ID med flera.
QR står för Quick Response och innehåller information sparat i det pixelmönster vi ser allt oftare idag, totalt kan man som mest lagra ca 4000 tecken i en standard QR-kod. En extra smart funktion är att koden innehåller dubblerad information så även om upp till 30% av koden är förstörd eller saknas så är den fortfarande läsbar av en skanner.
Apple är dessutom på väg att ta QR-koder ett steg längre med det som kallas App Clips där man skall, genom att skanna en QR-kod, starta ett minimalistiskt program, som en nedbantad app, och exekvera olika funktioner, direkt och bara genom att skanna en specifik kod.
Även om ingen personlig information hanteraas vid skanning av en QR-kod så kan naturligtvis kodens skapare se hur många gånger en kod skannats, vilka IP-adresser de skannande enheterna har, vilka operativsystem som skannat koden och så vidare, motsvarande samma information som du lämnar efter dig när du surfar via webben.
QR-koder är antingen statiska eller dynamiska, helt beroende av behovet hos den som skapar koden. Är det enbart för inloggningsinfo till ett trådlöst nätverk så är det (oftast) en statisk QR-kod, en som kan användas av alla som ser den. Skall du däremot ta betalt för något så skall ju koden innehåla mycket mer specifik information om just det specifika köpet, då använder man en dynamisk kod, en som genereras för varje köp.
Hur byggs koden upp?
Positionsmarkörer
Inställningsmarkörer
Tidsmönster
Versionsinformation
Formatinformation
Data och felkorrigeringsnycklar
”White space”, det vill säga områden som enbart finns för att ”rama in” övrig information.
Ibland kan man undra varför vissa annonser dyker upp i webbläsaren eller i t.ex. Facebook-appen, ofta med material som liknar det du precis sökt efter hos Google eller någon av de andra sökmotorerna som finns. Rent generellt kan man naturligtvis minska annonserna genom att spärra bort ett flertal av dom genom att använda Pi-Hole, se denna artikel, men man kan också försöka lämna färre spår efter sig då man söker efter olika saker på nätet.
Själv är jag stor anhängare an Startpage och deras upplägg, inte minst för att du kan göra väldigt mycket inställningar och dessa behöver du inte ens använda, eller rättare sagt tillåta, cookies/kakor för att spara. Du kan välja att endast ha dom sparade i din URL, såhär:
Via denna länk sparar jag mina personliga inställningar vilka inte innehåller någon information om mig utan just bara inställningarna. Prova den gärna, du kommer att se ett ”mörkt” utseende, 20 sökresultat per sida och javisst, man använder på detta sätt indirekt Google som sökmotor så är man nöjd med sökresultaten därifrån så är Startpage perfekt. Lägg den som din startsida, precis som namnet tipsar lite om, och du slipper se alla annonser baserat på dina sökningar, oavsett vad du söker efter.
Är du trött på webbsidor, till exempel Expressens hemsida, fyllda med reklam som pockar på din uppmärksamhet? Eller på att kanske (yngre?) familjemedlemmar tittar allt för mycket på avklädda människor i olika intima situationer? Då kan det vara en idé att installera en eller flera, för redundansens skull, egna filtrerande namnservrar, så kallade DNS:er (Domain Name Server). På så sätt kan man, lite ”fult” men oftast fullt fungerande, göra så att man filtrerar bort alla förfrågningar för namn man vill undvika, till exempel ads.google.com eller www.pornhub.com, så att datorn, plattan eller telefonen får ett svar tillbaka från namnservern som säger att sidan inte kan hittas. Oj, tänker du kanske, då måste man ha servrar, man måste ha en hel infrastruktur med licenser för allt …. ojojoj, det blir hur dyrt som helst men det kan jag berätta att det inte blir. Lovar!
Det du behöver, för att komma igång, är till exempel antingen en enkortsdator från Raspberry, en nyare Raspberry Pi. Med alla tillbehör ligger den på runt 700:- och den kommer att fungera utmärkt. Alternativet är om du har en gamma dator med Windows 10 som står i en hörna? Denna fungerar precis lika bra och den känns kanske som ett enklare val i det fall du inte känner dig bekväm med att ”drifta” en Linuxbaserad enkortsdator.
Docker för desktop
Vi utgår från Windows 10-datorn och att du har en fungerande sådan. Om du inte redan gjort det, börja med att konfigurera alla dina IP-inställningar manuellt så att du säkert vet vilken IP-adress datorn har.
Du behöver därefter skapa en virtuell miljö i vilken du kan starta mjukvaran Pi-hole, denna är ju gjord för att köras i Linuxmiljö och den finns portad för Docker vilket är jättebra! Gå till Docker.com, skapa ett konto, logga in och ladda ner Docker Desktop för din Windowsversion.
Under installationen av Docker Desktop, undvik att klicka i att du vill köra Windows Containers för det vill du inte, Linux är standardvärdet. I övrigt, med den nya WSL 2-tekniken så behöver du inte konfigurera mer, tidigare var man tvungen att definiera antal virtuella CPU:er, mängd minne med mera men det behöver du inte nu.
Efter att du installerat Docker Desktop, och startat om din dator, så laddar du med fördel ner Pi-hole-kontainern med följande kommando i Windows kommandotolk startad med adminrättigheter.
docker pull pihole/pihole
För att starta Pi-hole, nu när du laddat ner containern, så måste du ange ett startskript, detta gör du i samma eller en ny kommandotolk startad med adminrättigheter.
Ändra inte värdet för DNS1, det måste vara 127.17.0.1 vilket är Pi-hole:s interna IP-adress i Dockermiljön. Du kan ange fler namnservrar med
-e DNSx=<IP-adress>
… där x=2, 3 osv.
Om du inte stött på några problem har nu Pi-hole startats i Dockermiljön och din DNS är igång och fungerar. Dags nu att gå tillbaka till dina statiska IP-inställningar i Windows 10, ange nu den statiska IP-adress du gav datorn även som DNS så att även servern använder Pi-hole.
I fallet ovan kan du nu logga in i din nystartade Pi-hole från ett webbläsarfönster med http://192.168.100.203/admin och sedan välja ”Login” och ange ”password”.
Dina DHCP-inställningar
Jag förutsätter att dina klienter i ditt nätverk, det vill säga dina datorer, plattor, telefoner, smarta enheter och andra enheter som begär IP-adresser får dessa tilldelade av din router eller din internetleverantörs tjänstefördelare. Som en del av att tilldela IP-adresser till de enheter som begär det så anges också vilken IP-adress namnservern i nätverket har. Normalt är det samma IP-adress som router eller tjänstefördelare men nu vill du ändra det till IP-adressen din Windows 10-dator som kör Docker/Pi-hole har. Hur du gör det vet jag inte men min router, som kör DD-WRT som routermjukvara, kör DNSMASQ som DHCP-server vilket innebar att jag fick lägga till följande kommandrader i tjänsteuppgifterna för DNSMASQ.
dhcp-option=6,192.168.100.203
Du kan självklart ange andra options också men det får bli en annan artikel, detsamma gäller alla inställningar och anpassningar man kan göra i Pi-hole, det får också bli ett annat tillfälle men med denna grundinstallation tar du bort det mesta i reklamväg utan några synbara problem för den ”vanlige surfaren” om man säger så.
Vassego …
Tillägg 2021-03-12: Efter senaste uppdateringen till Docker Desktop ver. 3.2.1 så binder Docker, med hjälp av WSL2, port 53 till wildcardinterfacet 0.0.0.0 vilket gör att ”-p 53:53/tcp -p 53:53/udp” ofelbart kommer att ge ett felmeddelande vid uppstart av PI-Hole i Docker. Använd istället ”-p 127.0.0.1:53:53/tcp -p 127.0.0.1:53:53/udp”, ”-p 127.17.0.1:53:53/tcp -p 127.17.0.1:53:53/udp” eller kanske det egna interfacets yttre IP. Internet är fullt av felrapporter angående detta, vissa har lyckats backa till en tidigare Docker-version där det inte sker medan andra, som jag, istället fått laborera med annat än wildcard-IP.
Tillägg 2021-04-26: Hur uppdaterar man Pi-hole enklast i Docker-miljön? Jag gör som såhär …
Loggar först in i webbgränssnittet för Pi-hole, går in under inställningar och sedan fliken Teleporter. Väljer att göra en backup, du får då en .tar-fil i mappen för nedladdade filer. Du behöver sedan köra Gzip på filen så att den komprimeras och får ändelsen .tar.gz …
Går in i hosten som kör Docker, öppnar upp Docker Dashboard och stoppar Pi-hole-instansen i Docker, väljer sedan att radera hela instansen efter att den stoppat.
I Docker Dashboard, gå till Images och radera den Pi-hole-image du har.
Starta Powershell som administratör, ladda ned senaste Pi-hole-imagen med kommandot ”docker pull pihole/pihole”, sedan uppstartkommandot ”docker run …” enligt beskrivningen ovan.
Logga in på nytt i webbgränssnittet för Pi-hole, gå till inställningar, fliken Teleporter och läs tillbaka de flesta inställningarna via din sparade fil.
Under inställningar, fliken DNS, gör de inställningar som behövs här.
Apple Private Relay för Safari fungerar inte bra med tidigare versioner av Pi-hole men efter att ha uppdaterat till senaste release (FTL ver. 5.10 eller senare) så kan man ange i /etc/pihole/pihole-FTL.conf följande.
BLOCK_ICLOUD_PR=false
I min uppsättning kommer dessutom alla DNS-uppslag från en klient varför jag väljer att inte ha kvar den ursprungliga begränsningen om 1000 förfrågningar per 60 sekunder per klient.
RATE_LIMIT=0/0
Tillagt 20240811: Se också om hur man med fördel kan köra Pi-Hole tillsammans med Unbound för ännu bättre privatliv på Internet …
Nu tror du säkert att jag kommit på den verkliga sanningen till varför nya iPhones blir så omåttligt populära även hos de som haft sin tidigare telefon ett år eller mindre … men det har jag inte, jag bara ställer mig frågan, samma fråga år efter år … och något bra svar har jag inte.
För det första, att köpe en ny iPhone, förutsatt att man har en tidigare modell sedan tidigare, är så urbota tråkigt. Jag vill ju ha något nytt att sitta och pilla med, göra alla inställningar på och … det behöver man ju inte, man skannar av en kodad bild på sin tidigare telefon och vips har den duplicerat sig själv med alla appar, inställningar och allt man behöver för att fortsätta använda sin nya telefon precis som man gjorde med den gamla. Tråkigt!
Nåja, nu har man i alla fall en ny telefon att pilla med … men varför skall man det? Allt, precis allt, ser ju likadant ut som i den gamla luren, den kör samma operativsystem, den hade precis samma utseende som den nya och ja, möjligen kan man ha en något annorlunda och uppdaterad kamera men oftast är de skillnaderna marginella hur gärna Apples marknadsavdelning vill påtala att det är ett nytt uppvaknande för mänskligheten var gång en ny iPhone-modell lanseras.
Ändå står jag och miljontals andra och köar för att få en ny iPhone, om inte varje år så vartannat i alla fall. Varför …
… eller är det så enkelt att Apple lyckats hitta ett litet område i hjärnan som de berör, det lilla område som hanterar känslor och sådant som gör att vi, helt utan logik, plötsligt villhöver något så mycket att vi utan att blinka blir villiga att lägga nära 10.000:- eller mer för en pryl som bara får oss att må bra, inte för att vi behöver den utan för att vi villhöver den …? Det är bara att applådera för även om de tillverkar en bra produkt så är det inte den bästa men … den får oss att må bra, vetefasen hur bara … 🙂
Nu har jag äntligen gjort det, ja … bytt webbhotell och domänhantering, vad tänkte du? 🙂
Jag har under många år, sedan 2003, haft olika typer av uppsättningar och konstellationer av webbhotell, domänhanterare/registrarer, spamfilterleverantör med mera, med mera … och ofta flera liknande tjänster samtidigt, det har liksom varit lite av en hobby jag nu tröttnat på, vill ha det lite enkelt istället …
… men framförallt var jag trött på alla kostnader som kom med alla dessa tjänster, var och en inte så dyr men totalen blev nog över 10.000:- om året. Nu i vinter blev det dessutom så att alla mina tjänster skulle komma att behöva förnyas ungefär samtidigt, eller sägas upp så varför inte. Har tidigare haft One.com under en kort period för att testa det och då fungerade det bra så varför inte prova dom igen?
Sagt och gjort, webbhotell med en kostnadsfri .one-domän sattes upp, de som var medåkare på mitt befintliga webbhotell hos DreamHost blev informerade, jag startade med att flytta mina domäner först, liksom för att lära mig One.com:s hantering och efter att det gått bättre än förväntat flyttade vi mina företagsvänner och deras sajter, epost och allt. Sitter nu med det sista kvar hos DreamHost som liksom skall få självdö i samband med att jag stänger mitt konto där i mitten av december.
Mina två huvuddomäner, Skaneturer.se och Nordh.tech, är i full drift och endast Skaneturer.se var nere två timmar p.g.a. ett misstag från min sida mer än vad jag kan skälla på One.com för … 😉
Så långt kan jag bara rekommendera One.com, deras chatsupport har fungerat alldeles utmärkt vid de få tillfälle jag har behövt dom.
Då jag lyssnar mycket på musik, på allt från country till äldre hårdrock, så tänkte jag att det kunde vara roligt med en riktig rörförstärkare till mina hörlurar. Fram för allt har jag förstått att mina Sennheiser / Drop HD 6xx ofta förekommer i rekommendationer tillsammans med olika rörförstärkare. Jag satt och tillbringade måååånga timmar med att läsa olika recensioner, kolla på Youtube med mera och fann snart att det är svårt att hitta någon man litar på då de flesta mer eller mindre tjänar på att ge olika pridukter goda vitsord i dessa forum. Dock var det ett företag som jag fastnade för, vet inte varför men deras marknadsföring och inte minst deras produkter ”pratade” med mig, ungefär som när man är och bara ”tittar” på hundvalp, ja … du fattar …? Det är i alla fall Schiit, bara det namnet alltså …
Efter mycket vånda och dessutom väntande på att det skulle finnas produkter att beställa så kom plötsligt en uppdatering via mejl från deras Europadistributör om att Valhalla 2 nu fanns tillgänglig så den beställdes snabbt innan lagret på nytt var slut. Valde en svart då det finns en plan som även innefattar en balancerad DAC med en balancerad hörlursförstärkare från samma tillverkare och den sistnämnda finns bara som svart …
Då Valhalla 2 slutligen anlände, tog nästan 3 veckor innan den skickades och sedan var DPD inte den snabbaste leverantören, så packades den upp ur sina tjocka dubbla kartonger, den var verkligen välpackad. De två matchade rörparen låg i en separat förpackning så dessa fick man, utan några problem, montera i själv.
Kopplade ström och min nuvarande FiiO K5Pro som DAC med RCA-kablar. För er som läst artikeln om mina HD 6xx minns kanske att jag saknade lite bas och även lite på diskantsidan? Det gör jag inte nu, tro mig!
Mina HD 6xx kom verkligen till liv, basen blev djup och nästan lite ”rowdy”, vet inte om man kan kalla den lite ”busig” men jag hittar inget bättre ord eller uttryck. Mellanregistret är rent och klart och diskanten blev också mycket mer distinkt och tydlig utan att vara överdriven. Tidigare, med bara FiiO K5Pro, så var dessa lurar i lite behov av EQ där man gav lite extra för de låga men även de högsta tonerna. Det kan man inte nu, fram för allt blir basen allt för överdriven så det är en ”rak” inställning som gäller nu.
Byggkänslan i Valhalla 2 känns bra, jag har inte skruvat isär den (än) men den har en rejäl tyngd i sig, volymvredet känns bra men kunde dels gärna fått ha en bättre markering för sin inställning och dels gärna vara svart eller mörkgrått. Vem hade otur när de tänkte -”Nej men alltså, jag har en idé, vi tar samma silvriga knapp som vi har till den silvriga versionen, det blir bra, det kommer säkert alla att tycka ….”? Men å andra sidan, efter några timmars lyssnande, så måste jag säga att det är det enda jag har emot denna förstärkare, allt annat är faktiskt positivt.
Mycket mer finns inte att säga om Valhalla 2 från Schiit, den funkar kanon med mina lurar, den kombo jag använder verkar vara helt perfekt och denna kommer jag att lyssna många timmar på. 🙂
Jag har under en tid varit oerhört nöjd med mina Sennheiser HD 560s, de är nästintill ”analytiska” i sin lyssningsupplevelse, i alla fall för mig som är 50+ med alla de hörselskavanker denna svensk är behäftad med. Med ”analytiska” menar jag att de upplevs oerhört exakta i sin detaljåtergivning, på gränsen till skarpa, lite att jämföra med en bild där man lagt till nästan på gränsen för mycket skärpa. Vill man ha en ”exakt” återgivning så skall man definitivt prova på ett par HD 560s.
Men om man vill ha en lite mer musikalisk återgivning då? Satt länge och läste på om Sennheisers HD 650 och andra i samma serie, vilken för övrigt funnits med sedan slutet på 90-talet och fortfarande är väldigt uppskattad av audiofiler runt om i världen. Satt och följde priserna lite men tyckte nog att 4.500:- var lite väl i överkant, i alla fall för min plånbok. Hittade då att många rekommenderade Drop:s version, eller Massdrop som de bytt namn till, som heter HD 6xx. Med frakt från USA, tull och moms skulle de landa på runt 2.500:- istället vilket kändes mer skäligt. Jag lyssnar trots allt mycket på musik så varför inte …
Efter en dryg vecka dök de upp hos mitt postombud, de hämtades och kopplades snabbt in till min FiiO K5 Pro vilken i sin tur matas via USB från min Macbbok där Apple Music används som musikkälla.
Första intrycket? Ganska välbyggda och stabila, mina öron har inga problem med att rymmas innanför öronkuddarna. Lurarna klämmer åt ordentligt men för mig upplevs det inte som störande, inte ens efter flera timmars användande.
Ljudet då? Mja, nja … det kräver lite tillvänjning för mig, tänk på att jag kommer från de superkrispiga HD 560s-lurarna och då upplevs dessa HD 6xx som mycket mer bas- och diskantfattiga, framförallt är det de höga tonerna som, även om de finns där, inte alls är lika tydliga. Ljudbilden känns också lite mer ”instängd” jämfört med 560s, inte dålig men lite mindre ”rymd” i alla fall.
När jag skriver detta är det Crystal Gayle och hennes ’I’ve seen that look on me a thousand times’ som hörs på halv volym från K5:an och jag sitter med slutna ögon, tänker på att såhär hade det låtit om man suttit en meter från scenen på en liten klubb någonstans i USA. Tänk er att mycket textilier liksom suger i sig lite av diskanttonerna, som jag sa så finns de där men upplevs som något återhållna … och den tyngsta basen kommer inte heller igenom men allt annat finns där och låter riktigt, riktigt trevligt. Och det som nästan kan upplevas som gränsen till skarpt eller i alla fall ”överexakt” med 560s låter mjukare och nästan behagligt i 6xx-lurarna. Mmmmm … Me like, i alla fall för detta priset!
Vi är många, många, måååånga som suttit och lyssnat på Apples rumsligt ljud och de demolåtar de gärna använder, till exempel Marvin Gayes gamla låt eller Weeknds Save your Tears. Helt fantastiskt vilken skillnad Dolby Atmos gör, eller som Apple kallar det, Rumsligt ljud. Eller gör det så stor skillnad?
Jag lyssnade flera gånger och märkte ett par stora skillnader! För det första, då man vill bevisa den särdeles positiva skillnaden med Dolby Atmos jämfört med vanligt stereoljud så ökar man volymnivån, totalt skulle jag tro mellan 3 och 6 dB. I princip alla människor upplever musik på något högre volym som mer välljudande, det är bevisat så där luras vi att tro att ljudet förbättras.
För det andra, spela en låt i vanlig förlustfri stereoåtergivning, en som du tycker låter jättebra med mycket både låga men också höga toner, addera sedan en equaliser som du kan ge det gamla välkända leende ansiktet … och du kommer väldigt nära vad Apple kallar en revolution för musiken. Det är såklart inte hela sanningen och för all del, vill du verkligen vara säker på att du INTE skall höra musiken så som artisten, producenten eller någon annan ville att den skulle låta så visst, klicka för allt i världen i att du vill lyssna på låtarna med Dolby Atmos. Så känner jag! Trams …
… och sedan hittade jag bifogad video på Youtube som visade precis samma sak fast mycket mer ingående av en som faktiskt inte bara har en åsikt utan som är rimligt duktig i ämnet … 😉
För att kunna lyssna på Apple Music i det nya Lossless-formatet, ALAC, så behöver man extra hårdvara, vare sig man vill lyssna med en iPhone eller iPad, dels behöver man externa kabelanslutna hörlurar men man behöver också en extern DAC med inbyggd förstärkare då den inbyggda förstärkaren i telefon eller platta inte orkar driva ett par större hörlurar eller högtalare om man nu föredrar detta.
Man kan självklart köpa hur dyr utrustning som helst men jag ville självklart ha en avvägning mellan pris och prestanda. Som hörlurar valde jag Sennheiser HD 560s och som DAC föll valet på FiiO Q1 MkII vilken har ett inbyggt batteri som räcker mer än 10 timmar, enligt uppgift vilket jag inte testat än. Denna lilla DAC verkar välbyggd och ljudet är fantastiskt, speciellt som jag inte har något att jämföra med. Det sitter en inbyggd DAC med förstärkare i min dators USB-docka, en Caldigit TS3 Plus, och FiiO:n låter minst lika bra. Normalt sitter mina datorhögtalare i USB-dockan och så snart jag startar FiiO:n, medan den är USB-ansluten via dockan, så tar den över ljudet och släpper tillbaka ljudet till dockan så snart jag stänger av den. Perfekt!! Precis så som jag vill ha det.
Alla kontakter är guldpläterade och verkar vara av bra kvalitet med fin känsla då man kopplar in sina lurar. Likaså är skjutknappar och volymvred med sin inbyggda till/från pckså av hög kvalitet med bra känsla och tydlig funktion.
Ljudet då? Jo, i mina ”50+”-öron låter det helt fantastiskt bra, kanske också för att jag trivs med ljudbilden i mina Sennheiser-lurar. Det är ju också så att kombinationen Sennheiser HD 560s tillsammans med Fiio Q1 MkII kostar ca 2.500 Sek vilket man. kan jämföra med till exempel ett par bra blåtandslurar från Sony som kostar runt 2.800 Sek vilka inte har bättre ljud, lovar. Blåtand är alltid en begränsande faktor då man pratar om ljud i hög kvalitet och nu när Apple äntligen släppt sin tjänst för förlustfritt ljud i minst CD-kvalitet så vore det ju synd att inte använda utrustning, som dessutom är billigare, för att lyssna på det. Eller hur? Och då ingår det en kabel från Apple Lightning till den micro-USB som FiiO Q1 ansluts med, det sitter också ett inbyggt laddningsbart batteri i den så du kan driva dina lurar i 10+ timmar direkt från din iPhone eller iPad …
Har funderat länge på att skaffa ett par bra hörlurar, inte minst för att kunna spela ”min” musik ungefär på vilken volym som helst vilket innebär ganska påtaglig ljudnivå … 😉
Jag har suttit och kollat på Blocket, Marketplace och andra säljställen efter något begagnat, kolalde efter t.ex. Sonys blåtandsversioner, XM3 och senare XM4 men även andra var intressanta. Som den OCD-person som jag är satt jag också och funderade över om jag skulle kunna leva med de begränsningar, ljudmässiga alltså, som blåtandstekniken innebär i begränsad mängd ljuddata som kan överföras per tidsenhet jämfört med kabelanslutna motsvarigheter …
Började därför leta runt efter lurar med kabel och insåg snabbt att detta var den väg jag ville gå, definitivt med en väl fungerande DAC och hörlursförstärkare, inte minst för att kunna driva dom även från min telefon. Dessutom var ett par riktigt fina kabelanslutna lurar halva priset jämfört med en mer begränsad blåtandsversion …
Jag ville också ha ett par lurar med en väldigt jämn karaktär utan utpräglad bas, mellanregister eller diskant. Ganska snabbt dök Sennheiser upp på min radar och som en sorts sweet spot för min del verkade deras HD 560s vara ett lämpligt val.
Letade en del på Internet, hittade ett bra pris på Amazon och lade min beställning, några dagar senare hämtades paketet upp hos mitt postombud.
Jag har inte lyssnat i riktiga hörlurar på måååånga år, sist jag kommer ihåg är nog typ 40 år sedan och jag kan säga att teknik och ljudupplevelse gått framåt, verkligen!
Vilket ljud, gillar att de är öppna ”utåt” för jag inbillar mig att det ökar på den rymliga ljudbilden de har.
För det första så passar lurarna mitt huvud väldigt bra, de klämmer ingenstans och efter ett tag känns det inte att man har dom på sig. De är också, enligt mig, väldigt lätta.
Ljudbilden är öppen och ”rymlig”, de är också kirurgiskt krispiga i sin diskant och har ett fint mellanregister, basen är tung utan att vara störande även om man kör en låt mixad för en dundrande basupplevelse. Även om jag är 50+ och har en, enligt alla, nedsatt hörsel så kan jag säga att dessa lurar ger en häftig upplevelse för en novis som mig. Jag har hittat ljud som jag aldrig tidigare märkt av i mina Apple EarBuds eller AirPods. Och att de ansluts med kabel är bara störande eller lite annorlunda första dagen, sedan hittade man ett sätt att ha den upphängd på ett bra sätt vid datorn och skall jag vara ärlig, vilket min fru alltid säger att jag skall vara, så lyssnar jag primärt i dom sittande vid datorn och då är det inget problem alls med en kabel hängande vid sidan.
För att ansluta dom via datorn provade jag först via min dockningsstation, en Caldigit TS3 Plus, och det fungerade men då den sitter monterad under skrivbordet, för att vara ur vägen, så fick jag ner och krypa på knäna för att skifta mellan lurar och mina högtalare vilket inte kändes optimalt. Skaffade därför en liten USB-ansluten DAC (Digital to Analogue Converter) vilket jag kommer att skriva om i ett annat inlägg.
Jag, som så många andra, tänkte nog att jag köper till Magic Keyboard till min Mac, i mitt fall en MacBook Pro M1 från 2020. Eftersom jag ville ha en mus som fungerade bra till densamma så valde jag en Magic Mouse 2, också den från Apple.
Om sanningen skall fram så har jag aldrig använt en blåtandsmus som haft så lite fördröjningar mellan fysisk rörelse över musmattan och muspekarens verkliga rörelse, helt fantastisk faktiskt. Men förutom detta så har jag under flera månader haft svårt att vänja mig vid att hela ovansidan är beröringsyta och mina fingergester styr en uppsjö av funktioner som man verkligen vill ha men som, då man använder musen vanligt, plötsligt blir aktiverade. Jättestörande för i alla fall mig, det är bara att gratulera de som antingen står ut eller de som faktiskt får det att fungera utan att t.ex. plötsligt hela skärmen zoomar in, hemsidan man tittar på börjar scrolla då man försöker klicka på en länk och så vidare, bara för att nämna ett par exempel.
Jag älskar mitt Apple Magic Keyboard lika mycket som jag inte tycker om min Apple Magic Mouse 2, så är det.
Efter ett par månaders frustration, och en del surfande för att se vad andra använder, så föll valet till sist på en Logitech MX Master 3, Mac-versionen. Jag har tidigare haft en uppsjö av olika Logitech-produkter till PC och varit nöjd även om jag ibland tyckt att livslängden varit lite begränsad. Hur som helst …
Min MX Master kom, den kan anslutas antingen via blåtand eller via en Unifying-mottagare (medföljer ej) och det naturliga valet föll därför på blåtandsanslutning vilket fungerat så otroligt bra med Apple-musen.
Nu visade det sig att Logitachs implementation av blåtand inte fungerade lika bra som för Apple-musen. Här var man direkt tillbaka på att muspekaren hackade och hade sig då man skulle starta rörelsen, ibland lite, ibland väldigt mycket. Skam den som ger sig, jag har flera Unifying-mottagare liggande så varför inte testa detta? Sagt och gjort, synkade upp musen mot en efter att Logioptions installerats och vips fungerade allt som det skulle. Jättebra faktiskt, förälskelsen var ögonblicklig och total liksom. Denna mus har allt jag önskade mig, alla funktioner sitter i olika fysiska knappar och rullhjul och inte i mina kanske otydliga fingergester …
Nu har det, under senaste månaden, florerat en mängd rykten och inlägg på Internet gällande SSD-diskar som lär sluta fungera efter bara några års användning i de nya Mac:arna som kör Big Sur. Anledningen är i grunden att SSD-diskar bygger på en teknik där en viss minnescell endast kan hantera en viss mängd skrivningar, man kan enkelt säga att den till sist slits ut. Med dagens teknik kan man hjälpa upp detta genom att sprida information över minnescellerna så att inte en viss del ”slits ut” före en annan men till sist är minnescellerna förbrukade och lagringsmängden degraderas. För ”normala” datorer kan detta ta 10-15 år vilket då inte innebär ett egentligt problem men nu har flertalet användare flaggat upp, efter att ha kört olika monitoreringsmjukvaror, att deras diskar degraderats upp till 10% redan efter några månaders användning av de nya M1-försedda Mac:arna på grund av att datorns så kallade växelfil överutnyttjats.
Vad är då en växelfil? Jo, när datorns internminne, för oss med de nya M1-försedda Mac:arna är det 8 eller 16 GB, inte räcker till längre för operativsystemet, de startade applikationerna och de öppnade filerna med mera så kommer den minst använda informationen att kopieras ut på disken för att tillåta den mest och senaste informationen att få plats i minnet så att processorn har direkt tillgång till den. Så fungerar det i Mac OS, så fungerar det i Windows och i princip i alla ”vanliga” operativsystem, det är alltså inget konstigt med detta.
Men? Jo, i våra M1-Mac:ar kan man inte enkelt, som i vanliga datorer, byta en hårddisk som tar slut. Den sitter ju integrerad på vårt lilla moderkort och vad jag vet kan den inte bytas, precis som att vi inte kan byta eller uppgradera arbetsminnet i dom.
Jag har självklart koll på min växelfils utnyttjande 🙂 … Man är väl lite nördig?
Genom att starta Aktivitetskontroll så kan man längst ner, under fliken Minne, se utnyttjandegraden och jag, med 16 GB minne, har aldrig sett den utnyttjas, den är konstant 0 byte även vid t.ex. enklare filmredigering. Vad som däremot är väldigt tydligt är att min dator konstant använder mer än basmodellens 8 GB minne så för dom som valt den lägre minnesmängden innebär det att växelfilen kommer att användas mer eller mindre konstant. Nu vet jag inte om minneshanteringen är annorlunda då minnesutrymmet börjar ta slut och att operativsystem då kanske kan rensa lite innan växelfilen börjar utnyttjas men i princip är 8 GB allt för lite minne, även vid normalt användande.
Lösningen på problemet verkar alltså vara att köpa den utökade modellen med 16 GB arbetsminne i datorn, lägg dom pengarna nu och slipp dyra problem eller en värdelös Mac om några år … 😉
… är du säker på att du har en fungerande backup? När var sista gången du faktiskt läste tillbaka en backup och såg att filerna faktiskt fungerar att öppna? Eller kontrollerar du att filerna faktiskt finns där?
Anledningen till att jag skriver om detta är att jag igår eftermiddag, efter arbetet, satt och pillade med min fortfarande nästan nya Macbook, satt och synkade upp foldrar inne i Lightroom Classic och insåg plötsligt att något var fel. De mappar som innehöll över 20.000 bilder från två långresor till USA och flera fina nationalparker saknades från åren 2008 och 2009, det var björn, varg, bäver och jag vet inte vad som fotats under dessa resor. Amen vadf.., är det en bugg tänkte jag, gick in i Finder för att bara kolla så att mapparna låg där de skulle och inser snart att nej, ingen bugg … och inga mappar. Fasen tänkte jag, men det är lugnt, har ju backup både lokalt på en backupserver i huset och som om det inte skulle räcka kopieras de även från backupdatorn även till en tjänst ”i molnet” via tjänsten iDrive. Gick in i den lokala backupen men även där saknades de två åren och alla filerna? Men vadf.. och kallsvetten kom krypande … för jag vet ju att iDrive tar bort filer som saknats i mer än trettio dagar. Tänker lite positivt att de måste ju ha försvunnit helt nyligen så det är lugnt, jättelugnt … men nope, efter inloggning och snabb kontroll i iDrive-tjänsten så var det väldigt tydligt att dessa två mappar varit raderade i mer än trettio dagar … och filerna var borta!!! Visste inte om jag skulle skratta eller gråta, och vad fan skulle jag säga till min fru …?!?! Det var ju hennes bilder också!!
Mejlade iDrives support, fick svaret några timmar att de tyvärr inte hade äldre filer än just trettio dagar, precis som tjänsten föreskriver. Jag tänkte att de kanske sparade årsbackuper eller liknande men inget de kunde ta fram till kund i alla fall. Hopplöst berättade jag för Klara som såg nedslagen ut några timmar …
… och sedan gick jag, utan allt för mycket hopp om att kunna lösa det, in i arbetsrummet, satte mig och letade genom säkert femton år och lika många TB av fillagring, vissa saker i väldig röra, vissa välordnade … och efter en timme eller så ser jag så plötsligt datornamnet på en gammal dator dyka upp långt ner i filstrukturen under en mapp med namnet ”Temp”, ”Musse” och något som var döpt till ”Musse_OLD”, plötsligt en strimma hopp även om jag var beredd det skulle vara tomt härunder. Men nej, där fanns bildmappar, gott om dom, fram till 2016 och det räckte ju 🙂
Så slutligen kunde 20.661 bildfiler återläsas till sin rätta plats, allt var återställt och nya backuper var skapade, denna gång med korrekt antal filer. Livet är rätt bra trots allt och Klara såg glad ut igen 😉
Jaha, vad skall man säga? Förutom att jag aldrig skulle ha en Applepryl och ännu mindre en Mac …
Det hela började i slutet av 2020, idéen hade i och för sig föresvävat mig tidigare men som sagt, då min frus PC lade av, systemdisken bara kollapsade … En månad eller så innan det hände hade jag bestämt mig för att bygga en ny dator, Nvidia hade nyligen presenterat sina nya grafikkort i 3000-serien, AMD hade presenterat ett nytt monster till processor, nämligen Ryzen 3950x, och pc-fantasierna skenade iväg i huvudet på mig. Med gott om snabbt minne, några TB jättesnabbt NVMe-diskar, stora SSD-datadiskar skulle en sådan maskin gå på runt 40′ och lite värdepapper avyttrades … för att täcka den beställning som lades hos Inet. Allt var frid och fröjd sådär i väntans tider men inget, absolut inget, hände. Inget Inet kunde hjälpa, tillgången till grafikkort var försvinnande dålig och min leverans sköts fram … och sköts fram … och, ja, ni fattar.
Och nu presenterade ju Apple sina nya maskiner med M1-processorer, hmm … vafasen … verkar ju vara små underverk, om än i något begränsad form då man inte riktigt kunde addera varken minne eller disk i efterhand. Hmm, en MacBook Pro med M1-processor eller, nej … eller … Jag har ju inte pillat med Mac OS sedan mitten av 80-talet … hmm, nja … eller … ohhh, vad jobbigt … men vafan, det är ju lite som att en miljard flugor kan ju inte ha fel, koskit måste smaka bra … så jag beställde en MacBook Pro M1 13″ med 16 GB minne och 2 TB intern disk tillsammans med en Magic Mouse 2, ett Magic Keyboard, Caldigit TS3Plus-docka och en 5 TB mekanisk USB-disk. Jag hade sedan tidigare en Dell 27″-skärm samt en 2 TB mekanisk USB-disk, den sistnämnda tänkte jag använda för lokal backup. Efter några veckor kom alla grejor, flyttade min gamla pc till min frus plats, rensade upp allt under skrivbordet, gömde Caldigitdocka, alla diskar, en extra USB-hubb, bashögtalare, alla kablar och allt annat under skrivbordet, det mesta lite sådär lagom snyggt uppsatt med buntband i skrivbordsramen, och till sist var det riktigt fint så länge man inte lutar sig allt för långt ner och tittar … 😉
Fäller upp locket på MBP:n, kopplar Apple-laddaren och pling, datorn startar. Matar efter hand in lite info om WiFi, mina användaruppgifter, Apple-ID och liknande och allt kommer igång. Sitter och tittar runt lite sådär i största allmänhet och tänker för mig själv, ”det här känns som en Linuxdistribution med ett lite extra genomtänkt GUI” och den där känslan man får när man kommer från Windows-miljön till en Debian eller BSD-version hänger kvar och blir sedan ännu starkare när ett terminalfönster öppnas och ”Bash” (ett standardskal för Unix/Linux) uppenbarar sig … Hmm, men visst, allt fungerar väldigt snyggt och prydligt. Detta gäller då Mac OS-version Big Sur, har för mig att det var 11.2 … Sedan kom 11.2.1 och 11.2.2 i snabb följd. Börjar forska lite och visst, visar sig att Mac OS sedan i princip millenieskiftet baserats på Next/NextStep, ett Unixliknande OS med tillägg från BSD. Utanpå har man sedan utvecklat ett bra grafikorienterat GUI och paketerat allt som ett Mac OS 😉 … Trevligt!
Installerar mitt MS Office via App Store, försökte först via Microsofts hemsida men det gick inte så bra, deras Mac-version stödde tydligen inte den nya M1-processorn, kunde de väl ha skrivit på sin nedladdningssidan men nope, det fick man upptäcka själv. Hoppas bara att inte allt för mycket skräp blev efterlämnat av den misslyckade installationen … I övrigt var det smärtfritt och allt fungerade rakt av, installerade alla min 12 e-postkonton i Outlook och även detta fungerade utan problem. Här började jag också förstå att Apple tänkt ett par steg längre än Microsoft då det gäller säkerhet. Så snart en nyinstallerad applikation försöker accessa lokala diskar är man tvungen att peka ut vad och var den fick skriva och läsa. Först kändes det som om vaf.., skall jag behöva göra det här för varenda applikation men det behövde ju bara göras en gång, om man bara tänkte till före man angav vilka mappar man tillät, och sedan började jag uppskatta just tänket runt säkerhet. Även här går Unix/Linux-tänket igenom och det blir tydligt var man kommer ifrån.
Fortsatte med Adobe-sviten, dessa appar stödde inte M1-processorn direkt och här fick jag frågan om att först installera Rosetta2, Intel-emulatorn, men det var också bara första gången det behövdes. Sedan gick det mesta som på räls …
… vilket näst intill allt annat också gjort. Att komma från Windowsvärlden, där jag befunnit mig sedan mitten av 80-talet, trodde jag skulle bli en stooor utmaning men det blev det aldrig. Den lilla MBP:n har vuxit väldigt i mina ögon och känns redan väldigt hemtam, fläkten har jag bara hört en gång och det var när Adobe Lightroom skulle indexera 80.000+ foton, det gick däremot betydligt snabbare än vad det gjorde på min 2 år gamla värstingmaskin med avsevärt mycket mer minne och teoretiskt mycket snabbare processor. Ganska intressant faktiskt …
Finns det något jag inte gillar då? Mmm, det gör det faktiskt! Tangentbordet och alla förba….. knappkombinationer man måste lära sig, helt otroligt hur man kan gömma tecken man behöver använda då och då, inte minst när man använder terminalfönstret och vill köra lite Unixkommando, till exempel pipe-tecknet ”|”, eller när man vill skriva en ”\” … Tog en del surfande innan det började fungera för mig, muskelminnet från 35ish års harvande i Windows försvinner inte över en natt liksom. Eller att skriva ”@” för den sitter inte heller där muskelminnet har at-tecknet … 😉 … eller tilde-tecknet som jag inte hittat än …
Ja, Apples tänk runt tangentbordet och dess tangentbordskodning kan man nog skriva mycket om i ett eget inlägg, tro mig … men det börjar fungera allt bättre efter en månads användning. Och då menar jag bättre, för bra är det inte än med just tangentbordet …
Vad som däremot fungerar väldigt bra är helheten i Apples ekosystem, allt från EarPods till Macbook till … ja, allt annat hänger ihop väldigt bra. Bara att kunna sms:a eller skicka text via iMessage via datorn är ju oerhört bekvämt och ja, allt hänger ihop väldigt fint.
Jaha, det var första månaden och jag får säkert anledning till att återkomma eller vad tror du?
Under många år har jag använt olika blåtandshögtalare och det har fungerat jättebra, oftast … och i alla fall efter att jag hittade en iPod så att jag slapp att det ringde i blåtandshögtalaren så fort det ringde, eller att man slapp med förfäran inse att den jag försökte prata med hördes i hela området då högtalare stod på altanen med volymen högt uppskruvad samtidigt som vederbörande inte hörde mig alls, jag var ju kanske inte ens där …
Under ett av sina Apple-event under sensommaren 2020 presenterade så Apple sina nya HomePod Mini, små klotformade högtalare som definitivt var mycket mer tilltalande för ögat än de tidigare klumpiga, om än välljudande, och svindyra vanliga HomePod som funnits några år. De nya högtalarna skulle dessutom ligga runt 1200:- per styck villet kändes mer överkomligt än runt 4500:- de tidigare kostade.
Hmm, visst hade det varit smart tänkte jag, men så tänkte inte Apple, de hade för nämligen inte för avsikt att sälja dessa i Sverige med hänvisning till att Siri, den talstyrning Apple tycker man skall använda till allt, att ”hon” inte pratar svenska. Det var mitt allra minsta problem i denna världen, Siri är nämligen det sista jag vill ha och definitivt det första jag slår ifrån i mina Appleenheter så snabbt jag bara kan. Vem med en syresatt hjärna vill ha mikrofoner, helt utom sin kontroll, igång i sitt hem? Mikrofoner som kan fånga upp allt från förtroliga samtal till vuxenlekar, nej tack!!! Inte i mitt hem i alla fall!!! Finns ju ingen som vet var detta hamnar eller vad det kan användas till … och jag vill i alla fall inte vara den som står för underhållningen på Apples, eller någon annans, julfest 😉
Hur som helst, våra fyra HomePod Mini fungerar utmärkt och de har även ett ljud som vida översteg mina förväntningar, även om de är väldigt små så finns det en antydan till djup bas såväl som ett utmärkt register av höga frekvenser. Jag kör en helt rak tonkurva via telefonen och har inte känt ett behov av att laborera med andra equalizerinställningar i min Apple Music-app.
Jag startar oftast Apple Music i min enhet, klickar på Airplay-ikonen och går in och väljer vilka högtalare som skall spela den spelade musiken. Låter jag sedan Apple Music.appen vara framme och aktiv så kan jag fortsätta justera den gemensamma volymen likväl som de enskilda högtalarnas volym eller till exempel att byta artist eller låt direkt i appen. Väljer jag att avsluta appen fortsätter musiken att streama via Airplay 2 och telefonen som startade strömmingen kan lämna byggnaden och nätverket.
Skulle jag åter starta Apple Music så finns det ingen koppling mellan appen och det som spelas i högtalarna. För att kunna styra detta igen måste man starta Apple Music genom Homekit och appen för detta. Så först startar jag Homekit, då visas högtalarna eftersom jag valt att de skall visas bland favoriterna och ett långtryck på någon av de aktiva högtalarna ger åter tillgång till det som spelas. Denna hantering var betydligt mer omständig än vad jag förväntat mig och den täta knytningen till Homekit är mer tydlig nu än den var från början.
Som sagt, bra ljud och fungerar utmärkt men har en lite ”yxigare” hantering än vad jag ursprungligen tänkt mig då dess användningsområde egentligen, med Siri, är så mycket mer än bara bra ljud …
… och slutligen, som en lite bonus så kom jag på att de små runda underverken fungerar som Homekit-hubbar, de kan alltså kontrollera den automatisering du sätter upp i Homekit, alldeles perfekt 🙂
Nu var det hösten 2020, Apple körde sitt stora presentationsevent, denna gång online vilket innebar att hela världen kunde delta om den ville. Vi visste ju alla att en ny iPhone skulle presenteras men att det skulle komma en iPhone 12 Mini hade jag inte funderat mycket över innan den visades. Någon hade en gång sagt till mig att -”du måste ha Pro-modellen, de andra är inget du blir nöjd med …” men hur mycket jag än läste på så var det i princip bara avsaknad av zoomobjektivet som var skillnaden mot 12 Pro och med min 11 Pro använda jag aldrig detta … Annars var skärmen lika bra, ja … jag hittade inte något annat de direkt gjort avkall på jämfört med Pro-modellen.
Men jäklar, detta var precis det jag önskat mig och även om telefonen sällan (läs aldrig) lämnar mig så är den inte igång särskilt mycket så det något mindre batteriet, och därmed kortare användningstiden, störde mig inte mycket. Höll på avtryckaren, eller musknappen men avtryckaren låter häftigare, i samma ögonblick den gick att beställa. trots att min iPhone 11 Pro inte var ett år gammal. Med facit i hand ångrar jag mig inte, iPhone 12 Mini är precis så ”lagom” i storlek och vikt som jag önskade mig. Betänk att vi kunnat använda iPhone 6/7/8 utan problem och trots att 12 Mini är mindre till yttermåtten så är skärmen ändå märkbart större i och med att hela telefonytan upptas av just skärmen. Det mindre batteriet är fortfarande mindre men ändå inget problem än med de inställningar jag valt att ha. Tror aldrig jag lyckats sätta den på laddning i slutet av dagen med mindre än 40% laddning kvar så det är ok. iPhone 12 Mini är den perfekta telefonen för mig …
Nu kommer jag inte ihåg om det var vid samma event som iPhone 12 Mini visades upp som man också visade upp sina nya HomePod Mini eller om det var ett senare event samma höst. Hur som helst, den tidigare HomePod-modellen var i mitt tycke för stor och dessutom alldeles för dyr med en prislapp runt 4000:- per högtalare. Den nya, HomePod Mini, landade däremot på mer humana $99 per högtalare och det kunde man lättare svälja, då skulle man i alla fall kunna få tre stycken till samma pris som en. Och ja, jag fattade att det skulle bli lite sämre bas med tanke på den lilla storleken men att ha dom till lite loungemusik i hela huset, det skulle de säkert klara eller hur?
Nästa problem, de skulle inte komma att säljas i Sverige. Skit!! Kollade hos Apple i Tyskland men nope, de skickade inte till ”der dumme Schweden” eller hur det nu var de sa. Till sist, efter Jul- och Nyårshelgerna hittade jag en kille på Blocket som tagit hem tre stycken vita, vi kom överens om ett pris och så kom de, med kvitto och allt från ett företag i Frankrike som heter Fnac. Ytterligare en beställdes från Fnac via fnac.com, en svart, och det var spännande att beställa på en hemsida som bara pratade ett språk jag absolut inte kan ett vettigt ord på. Men den kom, den också … så nu spelas det musik i fyra rum, hela dagen och det låter faktiskt mycket bättre än vad jag förväntat mig från dessa små bollar till högtalare. Nu får vi bara hoppas att jag inte behöver få hjälp med dom via garantin i Frankrike för det kommer jag aldrig att fixa 😉
Efter ett tag gick det dessutom upp för mig att de här små högtalarna kunde agera hubbar för Homekitfunktionen i huset vilket passade mig utmärkt. Varför? Jo, ett I-landsproblem kanske men för att Apple TV skulle kunna fungera som Homekit-hubbar så var de tvungna att antingen alltid vara igång om de var nätverksanslutna via kabel, vilket de inte var då vi var kväll sätter dom i viloläge, eller så var de tvungna att vara anslutna till nätverket via WiFi. Jag tycker ju om, gammalmodig som jag är, att ha stationära enheter anslutna via kabel för då vet jag att det fungerar optimalt och mina Apple TV utgjorde inget undantag. Nu är de åter anslutna via kabel och våra HomePod Mini sköter husets Homekitenheter utan att klaga …
… och nu fick jag lova min Klara att inte shoppa mer Appleprylar … men tror ni det gick så bra? Mer kommer … 🙂
Som så många andra också verkar tycka, Apple Magic Mouse 2:s muspekare rör sig hysteriskt långsamt över skärman även om man under Systeminställningar/mus ändrar till högsta hastighet. Vad kan man då göra?
Starta ett terminalfönster, skriv sedan
defaults read -g com.apple.mouse.scaling
Det troliga är att du får svaret ”3” tillbaka på den läsförfrågan.
För mig med original 13.3″- och tillkopplad 27″-skärm med 2560×1440-upplösning fungerar värdet 5 bättre.
I terminalfönstret, skriv följande.
defaults write -g com.apple.mouse.scaling 5.0
Värdet 5.0 kan du anpassa efter eget tycke och smak, dock max 7.0 vad jag vet.
Starta sedan om datorn.
Skulle du vilja ändra under Systeminställningar/Mus igen kommer detta värde att återställas och du får skriva in det igen.
Ja, det är inte enbart i den finansiella världen, inom handel eller för oss som gärna vill ta oss över landsgränser som Brexit fått konsekvenser.
Många tekniska prylar är väldigt beroende av en gemensam, stabil och oerhört exakt tidskälla och för det använder man NTP, Network Time Protocol. Många företag och nätoperatörer har sina egna iridiumur som i sin tur nyttjar GPS för att synka sina klockor, men för oss privatpersoner är det inte ekonomiskt eller praktiskt möjligt. Istället får vi hitta fria alternativ via Internet och ett sådant initiativ är pool.ntp.org, ett stort antal så kallade tidsservrar som är fria att utnyttja och peka ut från sina datorer, sin nätverksutrustning, sina servrar eller vad man nu behöver tidssynka.
En sådant standardanrop har under låååång tid varit eu.pool.ntp.org och har man ställt in detta har man skickats sina tidssynkanrop mot fyra olika IP-adresser inom EU och så har allt fungerat. Det har varit en sådan säker sak att tillverkare till och med hårdkodat i sina enheter, det vill säga att du inte ens kan ändra det själv utan tillverkarna måste uppdatera sina mjukvaror och du i din tur måste utföra uppdateringen i dina enheter från dessa tillverkare. TP-Link är en av dessa tillverkare som gjort så, bland annat i sina produkter för meshnätverk, i mitt fall hittade jag det i Deco M9 Plus.
Vad har då Brexit haft för inverkan på detta? Jo, när det stod klart att Brexit skulle bli ett faktum valde projektet pool.ntp.org att, istället för att bryta isär de organiserade NTP-servrarna, döpa om domänanropet från eu… till europa… vilket innebär att man numera måste gå mot europa.pool.ntp.org för att synka sina enheter.
Ändringen fick så allvarliga konsekvenser för så många användare att till och med Google i sina DNS:er 8.8.4.4 samt 8.8.8.8 lade in egna entries för att skicka användare rätt men använder du egna eller din operatörs DNS:er är risken stor att dina enheter helt enkelt inte kan synka sina klockor längre. För min del, med mina fem Deco-enheter, innebar det dessutom cirka femtiotusen DNS-anrop per dygn mot den gamla domänen då enheterna bara sprutade ur sig försök till att tidssynka.
Hur löser du då detta? Ja, som tidigare nämndes kan du ju i dina Deco peka ut Googles DNS:er, står de i läge ”Åtkomstpunkt” får du nog först gå över i ”Router”-läge, göra inställningen, spara inställningen och sedan gå tillbaka till ”Åtkomstpunkt” igen för att hoppas på att de fortsätter använda den. Alternativet för mig var att lägga in ändringen i mina egna lokala DNS:er så att eu.pool.ntp.org pekade på nedanstående fyra IP-adresser.
anders@Anders-MBP-M1 ~ % dig europe.pool.ntp.org ;; ANSWER SECTION: europe.pool.ntp.org. 45 IN A 193.190.147.153 europe.pool.ntp.org. 45 IN A 37.187.205.149 europe.pool.ntp.org. 45 IN A 5.39.184.5 europe.pool.ntp.org. 45 IN A 92.62.34.78
Så, efterhand som jag börjar vänja med vid storleken och tyngden med min iPhone 11 Pro så började jag fundera över hur man på ett bra sätt skulle kunna slippa irritationen när det ringde och man samtidigt hade sin blåtandshögtalare ansluten. Visst var där både mick och högtalare men jag ville ju inte ha högtalaren som en sorts konferenstelefon. Irriterande alltså … 🙂
Visst var det så att Apple hade gjort något som hette iPods tänkte jag en vacker vårdag? Och visst hade de det, dessutom tillverkades det fortfarande en modell som såg ut som en liten iPhone, hittade till slut en i princip lättare begagnad Product Red iPod Touch 2019 på Blocket som var i princip oanvänd … och så hade vi, samtidigt som min fru himlade med ögonen, löst ytterligare ett världsproblem, eller var det ett I-landsproblem kanske …??? Jag kunde nu spela allt jag ville utan att musiklyssnandet stördes av en gäll ringsignal och att alla i området behövde lyssna på vem jag pratade med …
Så, från att inte skulla äga en Apple-produkt, någonsin(!), så fanns det nu två Apple TV, en telefon, en iPad och en iPod knutna till mitt Apple-ID. Var gick det fel kan man ju undra … 🙂 … och javisst, en iPhone som jobbtelefon också …
Med så mycket Apple i sin ägo så kanske det hade varit en idé med en Apple-dator också? Så tänkte jag, en annan vacker sommardag … men nej, de var allt för dyra och jag hade ju en alldeles utmärkt HP Gaming-laptop, det fick fasen räcka, men ändå … Satte ut HP:n på Blocket och på FB Marketplace för några tusen, samma som jag tänkte lägga på en 5-6 år gammal Macbook av enklare modell. Fick absolut inget napp, inget! Så hela den tanken lades på is.
Vad jag däremot inte lade på is längre var att gå ner lite i vikt, när vågen passerade på fel sida om 0.11 ton så var det dags att ändra lite av min livsstil och alla skämt om att ”rund är också en form” så det blev att anmäla sig hos Viktväktarna. Som en liten extra morot, och för att få ut mig på 5-6 km:s promenader så skulle en smartklocka (heter det så?) inhandlas. Gissa om den nya SE-modellen var lätt att motivera, med e-sim, och så adderades den till Apple-kontot 😉
Under alla år jag och Klara bott tillsammans så har vi styrt alla lampor i fönster, vitriner, hyllor och likande med hjälp av allt från den enklaste timer till den mest avancerade. Det har varit mitt ansvarsområde att programmera och ändra dessa efter årstider, sommar- och vintertid och andra saker som påverkade. Med andra ord hade vi tänt och släckt lite om vartannat utan större koordinering mellan timerarna, det var aldrig rätt och jag tyckte det var viktigare att göra något annat. Jag fann ljuset … kan man säga, gissa om man kan snöa in på Apple Homekit och allt man kan hitta på med detta hemautomationssystem. Jädrans vad roligt det är!! Började med att någon på ett lokalt köp- och säljforum på FB sålde tre smarta 230V-pluggar, dessa kom i huset, programmerades och sedan dammsög jag begagnatmarknaden efter fler av samma märke och modell. Därefter hittade jag ett annat märke som inte var sååå dyrt via Amazon.se …
… så nu har vi bland annat 22 stycken 230V-pluggar i uttagen igång, två lampsocklar och en lampa vi kan styra. Grunden i Homekit för oss är våra Apple TV vilka kan agera hubbar eller man kanske skall kalla dom kontrollrar så att olika saker kan skötas helt utan att vi behöver vara hemma. Kanon!!
Nu kan man justera tändning och släckning, både ute och inne, efter solens upp- och nedgång och jag behöver aldrig bry mig. Snacka om att verkligen gå in för sitt ansvarsområde!! 🙂 … Återigen himlade min fru med ögonen och jag hörde något om ”du skulle ju aldrig ha Apple …” men jag valde att inte höra.
Började rota i bokhyllan i hemkontoret, var fasen har min numera gamla iPhone 6s hamnat? Hittade den till sist, instoppad längst in i en hörna på en ”avdankad-teknik”-hylla, bortglömd …
Packade upp den, hade fortfarande skyddsplasten kvar, kopplade laddkabeln till den och efter 5 minuter eller så startade den, loggade in med samma Apple-ID som jag nu hade aktivt och som jag använde till våra Apple TV. Avskydde fortfarande tangentbordet men fick uppdaterat telefonen till iOS 12, insåg att man numera kunde installera mitt älskade Swift Key-tangentbord och Applehorisonten ljusnade något kan man säga, från halvsvarta moln till en ljus och fin himmel. Insåg också att jag var tvungen att tänka om, helt om, när jag nu kom från en Android-värld kompletterat med någon kortare erfarenhet av Windows-telefoner. Men efterhand som dagarna gick så hittade jag runt, bättre och bättre för var dag. Dock så hade batteriet farit illa av att ligga oanvänt i mer än två år, hade om jag nu minns rätt runt 60% hälsa och det laddades snabbt ur så jag la en sjuhundring ur egen ficka till att byta det hos Apple. Vilken service de hade, beställde batteribytet en måndag, på tisdagen hade jag en returpaket i brevlådan med adresslapp och allt. Packade telefonen och skickade den på tisdagen, på onsdag eftermiddag packade de upp den i Tjeckien, bytte batteriet och skickade den dagen efter och på fredag runt lunch låg den för uthämtning hos mitt postombud. Jädrar vad det gick snabbt!
Ungefär samtidigt med allt detta så fick jag en ny telefon på jobb, en iPhone 8 så det var ju bra att vanan vid iPhone hade blivit något bättre.
Min 6s blev nu den telefon jag använde privat och efterhand som veckorna gick förstod jag allt bättre ”tänket” bakom operativsystem iOS, hur man hittar runt i det och dessutom insåg jag ju att Youtube är en outgrundlig källa till information och inte minst inspiration i ämnet, här tillbringades många timmar med att kolla hur man löste olika saker, vilka inställningar man var tvungen att ändra och inte minst hur man optimerade sin batterianvändning …
… och min vana trogen så nördade jag ner mig ordentligt i detta iOS-träsk …
… och jag som aldrig, ALDRIG!!!!, skulle ha en Appleprodukt i mina händer.
Tror ni historien slutar här? Nope … 😉
Det är sommaren 2019, vi håller på där ute i den sköna värme vi har denna sommar, satt i skuggan mellan hus och garage, mina föräldrar var på besök och vi hade ätit lite enklare plockemat som vi hämtat i stan. Plötsligt säger min fru -”VAR ÄR MIN IPAD, DEN ÄR VÄCK!!!”, tidigare på dagen hade vi haft garageförsäljning och hon trodde den var stulen … typ … och vi började leta överallt, hittade den inte men så säger hon -”Den låg ju på stolen du sitter i” med menande ögon åt mitt håll. Med ett lätt leende på läpparna inser jag att mitt sittunderlag inte är en bit hårt skumgummi, nä … det är en ganska dyr iPad Pro som nu intagit en lätt svängd form efter min rumpa …
Efter ett försäkringsärende kom en ”lätt renoverad” iPad tillbaka, min fru var inte nöjd med reparationen utan köpte en ny, senare modell, och jag tog därför över hennes ett och ett halvt år gamla (fast helt nya egentligen) iPad Pro …
… och så hade jag två Apple TV, en telefon och en iPad … och vid närmare eftertanke, det var nog nu det spårade ur för mig! Helt!
Hösten kom, och så gjorde iPhone 11. I alla fall i affärerna. Vafasen, jag hade aldrig köpt en premiumtelefon, aldrig lagt mycket pengar på sånt här alls, brukade använda gamla arbetstelefoner som privata efterhand som nya telefoner kom från jobb. En ny iPhone 11 Pro beställdes runt juletid via min telefonoperatör, kom en vecka senare och visst var den bra, visst var skärmen bra, visst var den fin … men … fasen vad stor den var, och tung! ”Känns premium” sa alla, jag tyckte mest den var tung och klumpig … men nu hade jag köpt den, nu var det bara att lära sig tycka om den. Basta!
Ibland undrar man var saker börjar gå fel, eller i varje fall i en annan riktning än vart man trodde man var på väg … 😉 Låter nästan som en existensiell eller nästan religös fråga men lite kan man ju undra.
Som den riktiga tekniknörd jag är, och alltid har varit, så kan man ju förstå varför man gillade att sitta och pilla i Windows registerfiler, jag körde Android-telefoner, jag kommer ju från elektroniksidan där man en gång i tiden kunde använda en logikanalysator för att följa uppstartssekvens och POST-förfarande för Motorola-processorer, jag satt och och programmerade EEPROM, det var verkligen hackande på ett och noll-nivå och där man direkt kunde följa och inte minst förstå de ändringar man genomförde.
Sedan kom Windows, tror jag började använda Windows 3.0 (kan ha varit tidigare version, var runt -86), sedan 3.10 och 3.11 … och man satte bockar i rutor för att välja, ofta fungerade det inte som det skulle och man fick in i .ini-filer för att konfigurera sina funktioner … och så vidare.
Runt -88 – -89 kom jag i kontakt med en Apple-dator första gången, kändes som världens lekstuga och något för flummiga musik- och grafikintresserade människor, inte för mig som var tekniker … och inte minst skulle man dra och släppa disketten i papperskorgen för att mata ut den ur diskettläsaren. För mig betydde det att man raderade … Ja, kvitt samma men där och då bestämde jag mig för att hata allt vad Apple hette, för all framtid, jä… tramsdator!
Snabbspolning fram till 2015ish, vi skulle på jobb plötsligt köra iPhone och jag fick en 6s och jag avskydde den från första sekund och i 20 minuter därefter, sedan hamnade den i bokhyllan och jag satte jobbsimkortet i min privata Androidtelefon med dubbla simplatser. Kanon! I tre månader, sedan stängde man av möjligheten att kolla sin jobbmejl med annat än iPhone … men då fick jag väl skippa mejlen tänkte jag, iPhone skulle jag fan inte använda i alla fall.
Snabbspolning igen, nu till våren och sommaren 2017, och vi behövde byta vår CanalDigital-parabol mot en nyare då den gamla knappt höll ihop längre. Dessutom var jag tveksam till att fortsätta ha CanalDigital då vi betalade ofantliga summor för en massa reklam och program som återsändes gång på gång. En kollega på dåvarande jobb var en riktig Apple ”fan boy” och han tipsade om Apple TV 4K-modellen och berättade allt om hur fantastisk den var. Tänkte att det finns ju motsvarande Android-modeller men … väljer man Apple så är man ju ganska säker på alla app-tillverkare ser till att hålla sina appar uppdaterade och fungerande då Apple TV ändå hade en ganska stor användarmassa. Så tänkte jag i min egen motivationsprocess så vi köpte två Apple TV 4K av minsta modell med 32 GB minne, fick hem dom och kopplade in dom. Sedan började frustrationen … som förväntat … till att jag förstod att jag var tvungen att skapa två konton hos Apple och inte bara ett, dels ett Apple-ID och dels ett för App Store.
Efter att detta lösts, med kontouppsättningen, så började vi använda våra AppleTV och efterhand så växte vårt gillande, mitt mer än min frus men efter någon vecka så fungerade det helt ok tyckte vi båda. Och efter ytterligare någon månad så gick det från att vara helt ok till att vara en riktigt bra produkt som bara fungerade och som dessutom gjorde sitt jobb bra, riktigt bra. Till och med så bra att jag började snegla på min gamla iPhone 6s som låg i hyllan … 😉
Känns kanske konstigt att någon köper en dator- eller teknikprodukt som funnits på marknaden i, vad jag vet, mer än 10 år? Och den har inte högre upplösning än 720p, är den då något att ha?
Jo, jag tycker det och i förhållande till priset så gör den sitt jobb och jag behöver inte visa upp mig i högre upplösning, tycker nog att detaljerna redan är överdrivet avslöjande.
På själva kameran finns inga knappar eller andra reglage, hade önskat ett enkelt ”censur”-lock man kunde fört för linsen så att man visste att ingen tittade även om man av misstag startat kameran men som sagt, det saknas. Vad som däremot finns är en rejält stor lysdiod som tänds då kameran aktiveras. Det är bra!
Då kameran ansluts till en Mac så upptäcks den och fungerar, noterar dock att micken heter ”Unknown USB Audio Device” men vet man bara om det så fungerar det, micken gör ju sitt jobb även om det inte är studiokvalitet precis.
Bildkvalitén är godkänd, i alla fall för mina behov men även här gäller naturligtvis att en dyrare webbkamera med högre upplösning ger ett bättre resultat.
En sak att tänka på är att kameran, då den hängs ovanpå en skärm så som jag gjort, hänger ner framför skärmenoch faktiskt täcker en del av skärmen, ganska mycket faktiskt. Jag kommer att sätta ett par ”gummifötter” på kameran så att den lyfts upp 4-5 mm i alla fall vilket kommer att göra det hela bättre men dock inte helt bra.
Vill man göra inställningar för kameran, i alla fall i en Mac, så är Google ens bäste vän, faktiskt. Hittade en nedladdning av ett enkelt inställningsprogram på Logitechs hemsida, se mer via Logitech support för C270. Tro nu inte för allt i världen att du får rätt namn för kamerans mick eller så, men du kan i alla fall justera lite exponering, vitbalans, bred- eller normalbild, och lite annat men det är inte mycket mer avancerat än så.
Kamerans kabel är inte överdrivet lång, har du en hög (=stor) skärm samt din dator på golvet kan du få problem men för de flesta räcker den säkert till och skall den bara nå en USB-kontakt på din laptop som står på bordet är det antagligen inga problem alls.
Överlag är jag nöjd med kameran, den fås när detta skrivs för mindre än 350:- via t.ex. Amazon.se med fri frakt. Svårslaget skulle i alla fall jag säga 🙂 …
… och det löste mitt irritationsmoment, nämligen att Macbooken står lite vid sidan av och huvudskärmen, min Dell 27″, står rakt framför mig. Jag tittade ju aldrig i riktning mot kameran men det gör jag nu … 😉
Ha det gott och glöm inta att kamma dig innan du slår igång kameran 😉
Så, nu har jag lugnat ner mig lite, inte mycket men ändå, över Tele2 och deras i mitt tycke totala avsaknad av kundvård … eller förankring i verkligheten för den delen!
I slutet av november beställs en iPhone 12 Pro med 256GB minne till min fru, efter en 10 dagar dyker den upp men ett litet(!) jack i skärmen upptäcks omgående vid uppackningen och jag kontaktar Tele2. Med facit i hand så skulle jag inte sagt något utan bara återförslutet allt igen och åberopat ångerrätten men tyvärr var jag ärlig och berättade som det var. Påpekade dock tydligt att jag betalt för en ny telefon och ingen lagad så reparation var inte att tänka på …
Efter ett par veckor kommer den ”nya” telefonen tillsammans med ett papper om att det är en renoverad telefon som skickas i utbyte. Ny kontakt med Tele2 och utnyttjande av ångerrätten, packar den renoverade telefonen med all dokumentation avseende utbyte med mera, skickar in alltihop den 7/12 2020 men är noga med att spara inlämningskvittot … och här skulle sagan vara slut men ack nej …
I tisdags kommer ett sms i vanlig ordning med info om den kommande månadsfakturan från Tele2, slarvläser och går tillbaka till sms:et igen efter 10 sekunder, vaf.. 13770:- för mycket …Ringer Tele2:s kundtjänst, -”Jamen du har ju inte skickat in din reklamerade telefon” säger dom till mig, för att göra en låååång historia kort, de noterar att de faktiskt, i något av sina system, tagit emot en telefon men den stämmer inte mot den jag köpt, fel IMEI …
De ha alltså noll koll på vilka telefoner de hanterar och då hör man inte av sig till kunden heller utan skickar en faktura, inte ett ord eller något om att man kanske skulle skicka mig den telefon jag så felaktigt, enligt Tele2 då alltså, skickat in som de nu tycks kunna behålla samtidigt som man fakturerar mig!?!?!?!
Nåja, efter en hel timmes diskuterande i telefon så förstår de vad som hänt, inte ett ord om vad ledsna vi är eller något, bara om hur deras system inte tillåter sånt här … Nåja, nu är det väl klart?
Nä… Inser under lunchen idag att min faktura i Tele2:s kundportal fortfarande ligger orörd med det höga beloppet … Startar en chatt med Tele2:s kundtjänst och visst -”Men du har ju fortfarande inte skickat tillbaka den reklamerade telefonen till oss” … Det finns inte heller någon notering i deras ärendehanteringssystem om mitt samtal i tisdags, nu börjar jag skriva med stooora bokstäver och många utropstecken i chattfönstret. Efter en stund får jag att de kan ringa upp mig, inte när det passar mig utan när det passar dom … Spelar ändå ingen roll, de ringer ändå 15 minuter efter ulovad tid.
Får en Rikard i telefon, och ytterligare ett -”Men du måste ju skicka tillbaka din telefon, annars blir det såhär …” men han förstår snart, då jag har en förmåga att bli extra tydlig i sådana här situationer, att han nog skall backa bandet något och kolla vad som hänt. Efter ytterligare en halvtimme så är det förhoppningsvis klart, jag har fått ett sms om att min kommande faktura är justerad till rätt belopp och ursäkten var att -”… såhär fungerar systemen …” och att -” … vi förväntar oss att kunderna tar kontakt med oss …”, dvs. ingen kontakt från deras sida med kund för att kontrollera vad som hänt, det går ju att lösa automagiskt med ett sms eller liknande, dessutom tyckte han inte det var så konstigt att de bara behöll en telefon som de inte ville ha … för det var ju inte den jag köpt …
Någonstans tycker jag nog att de borde göra om och göra rätt!
Tack för att du läst allt detta, nu har jag avreagerat mig i alla fall … … och nej, jag rekommenderar INTE Tele2 …
Tycker nästan, men bara nästan, synd om de anställda, kan f.. inte vara lätt att vara stolt över sin arbetsgivare …
Att få bra wifi-täckning i sitt hus kan vara en utmaning, inte minst beroende på hur huset ser ut samt vilka material det är byggt med. I vårt fall bor vi i vad som närmast kan betecknas som en bunker. Samtliga ytter- samt innerväggar består av armerad betong, det är inte bara utmanande när man skall sätta upp tavelkrokar, det är också ett elände om man vill försöka få till en vettig täckning med trådlöst nätverk, wifi. Och som om inte armerade betongväggar räcker till för att göra det jobbigt, vi har blåtandseneheter, mikrovågsugnar och andra tekniska prylar som slåss om frekvensområden där wifi för privatbruk också skall samexistera …
Under flera år hade vi ett par routrar som stod uppsatta som accesspunkter i varsin ände av huset men hur vi än gjorde var det alltid problem när man rörde sig mellan de olika rummen, det tog ibland lång tid innan enheter skiftade över från den ena accesspunkter till den andra, ibland hände det inte alls och så tappade man i princip kontakten med nätet. Ingen höjdare alltså …
TP-Link Deco M9 Plus
Under sommaren 2020 införskaffades ett så kallat mesh-system av fabrikat TP-Link, modellen är Deco M9 plus. Det vill säga ett antal accesspunkter med mycket intelligens i som kan kommunicera med varandra och utbyta information om var de olika enheterna som vill ansluta befinner sig, vilken som borde byta från en accesspunkt till en annan med mera och allt detta gör dom över en egen länk som de upprättar mellan varandra och som alltså inte upptar bandbredd för alla anslutna enheter. Denna så kallade ”back haul”-förbindelse kan antingen bestå av en kabelanslutning eller, om sådan saknas, en trådlös anslutning över en egen radioförbindelse.
Placering
Jag började experimentera med antalet accesspunkter och dess placering i huset, till slut verkade det som om fem stycken var optimalt, då får vi jättebra täckning även i uterum samt hela tomten inklusive garaget och garageinfarten.
Det slutade med en accesspunkt enligt bilden.
Arbetsrummet
Köket mitt i huset
En i respektive sovrum
Vardagsrummet
Accesspunkten i arbetsrummet är huvudnod och de andra använder denna för kommunikation mot omvärlden. Accesspunkten i vardagsrummet är kabelansluten mot arbetsrummet, övriga sitter bara uppmonterade och använder den ”back haul”-länk som jag beskrev tidigare, via egen radioförbindelse med andra ord.
Router eller accesspunkt?
För att kunna göra alla inställningar man behöver så är TP-Link-systemet gjort för oss med smarttelefon, det finns ingen möjlighet att använda sin dator utan det är en app i telefonen som gäller. Det fungerar å andra sidan ganska bra …
Det första man måste, eller i alla fall bör, bestämma sig för är hur man ser sin framtida användning av sitt nätverk, skall vissa enheter sitta kabelanslutna och skall vissa använda wifi eller skall allt i hela huset använda wifi? Har man ett NAS eller andra gemensamma enheter i huset som alla enheter skall kunna komma åt? Det är också bra att förstå hur ens tjänstefördelare är uppsatt, det vill säga hur ens Internetleverantör levererar sin tjänst. Det finns två sätt att sätta upp sitt meshnät på, antingen som ”Åtkomstpunkt” eller som ”Router” vilket är det förvalda alternativet.
Väljer man att använda det förvalda ”Router”-alternativet så kommer meshnätet att ha alla funktioner man behöver för att ansluta mot Internet, det innebär brandvägg, adressöversättning av IP-adresser mellan ert nätverk och de publika adresserna på Internet, det finns barnskydd och andra skyddsmekanismer att tillgå och anledningen till att detta läge är förvaltningsrätten är att det fungerar för de flesta oavsett hur INternetleverantörens tjänstefördelare är uppsatt. Som sagt, det fungerar även om det varken är rätt för de flesta eller optimalt …
I de flesta fall, som det är för oss, så levererar Internetleverantören en avlämningsutrustning, ibland kallad tjänstefördelare, med alla dessa funktioner aktiverade och ibland kan man få konstiga effekter om man sätter en brandvägg efter en annan brandvägg vilket ”Router”-läget i det här fallet faktiskt innebär och man tillför oftast inget mer än att man låter fler utrustningar göra samma sak. Läs på om detta i er dokumentation från Internetleverantören eller kontakta dom är mitt råd för finns dessa funktioner redan i er avlämningsutrustning rekommenderar i alla fall jag att man väljer ”Åtkomstpunkt” för meshnätet.
Uppgradera den inbyggda mjukvaran
Precis som med allt annat man köper idag, verkar det ibland som, så innehåller dessa accesspunkter en mjukvara, de är ju egentligen som små datorer om man ser till vad de kan och de kör Linux som operativsystem, en anpassad version från TP-Link. Det gör också att man behöver uppdatera sina enheter för att få senaste säkerhetsuppdateringarna, buggfixarna och även de senaste funktionerna. I Deco-appen finns en funktion för detta, den är enkel att hitta och den heter ”Uppdatera Deco”. Enkelt tycker man men nej, så bra var det inte. Den version mina accesspunkter kom med stödde inte uppdatering i Deco-appen utan man fick ladda ner en annan liten programvara till sin dator samt själva mjukvarufilen. Därefter visade sig att man var tvungen att avaktivera alla nätverksgränssnitt man hade i datorn för att denna lilla uppgraderingsmjukvara skulle förstå min dators nätverksuppsättning, kunna komma åt nätet och därmed skicka mjukvarufilen till samtliga Deco-enheter. Tog en dag eller två innan det blev klart för mig, och många svordomar också. När sedan allt var uppdaterat så visade det sig att då, via Deco-appen i telefonen, så fanns det ytterligare en uppdatering att lägga på så just nu, i skrivande stund, kör mina enheter ver. 1.4.3 signerad 20200921.
Skall alla enheter ansluta via mesh?
Så, nu är alla dina enheter anslutna i sitt nya fina mesh-nätverk, det är datorer, telefoner, surfplattor, smarta elpluggar i eluttag, smarta lampor, smarta högtalare, streamingboxar, ja allt man kan tänka sig … men så visar det sig att din streamingbox som är kopplad till tv:n i vardagsrummet plötsligt hänger sig och visar att den buffrar mer eller mindre hela tiden, dina smartpluggar fungerar ibland lite som dom vill, musiken i dina högtalare hänger sig och så vidare …
Det är nu man kan börja fundera på hur bra metodiken ”bara slå på strömmen och glöm resten” fungerar, kanske är det bra att veta vad man vill och fundera över hur man själv vill att det skall fungera. Genom att, i Deco-appen, gå in under respektive accesspunkt och sedan klicka på enheten som är ansluten kan man se så att den ligger mot den accesspunkt som verkar vettigast, att signalstyrkan är bra och sedan avaktiverar man ”Mesh Teknologi” (ja, svengelskan är sådär …). Då säkerställer man att inte den anslutna enheten får besked av accesspunkten att leta efter ett annat, ibland faktiskt sämre, alternativ.
Efter att jag avaktiverat ”Mesh Teknologi” för alla de enheter som faktiskt inte flyttar runt i huset så har jag haft ett riktigt stabilt trådlöst nät, mina Apple-TV har aldrig tappat hastighet på grund av dålig (läs felaktig) anslutning mot sin accesspunkt, mina smarta elpluggar och lamport har fungerat och allt snurrar på i bra fart här hemma.
Summering
Ja, ett meshnät som detta är inte jättebilligt, räkna med 1100:- per accesspunkt om du har tålamod och handlar när det är reor eller andra erbjudande … eller som jag gjorde, via Blocket 😉
Det medföljer inga monteringsmöjligheter utan jag hittade plasthållare som kan skruvas i tak eller på vägg via Wish.com så det tog några veckor att få hem från Kina. Likaså är kablarna väl tilltagna om du planerar att lägga accesspunkterna på fönsterbrädor eller liknande men monterar du dom på vägg eller i tak, räkna med att köpa på dig ett antal förlängningskablar.
Nu är jag jättenöjd, vi har ett väl fungerande trådlöst nät, det fungerar bra även i trädgården där Klipp-Niklas (vår robotgräsklippare) arbetar under somrarna och är i behov av Internet då och då, om inget annat när jag vill ändra någon inställning. Efter att jag inte längre tillät att enheter, som faktiskt inte flyttar runt, byter accesspunkt så har alla små avbrott upphört och våra streamingenheter har fungerat felfritt.
Den 25 maj 2018 började dataskyddsförordningen (GDPR) att gälla i Sverige och övriga EU.
Det innebär bland annat att inget företag eller organisation får spara personuppgifter som inte behövs för att leverera det du bett om och att du har rätt att ”bli glömd” så snart du ber om det.
För din kontakt med Nordh.Tech innebär det inte så mycket.
Vi sparar en kaka (cookie) vilket innebär en liten textfil med information om vad du gjort när du surfar hos oss, vi gör det för att kunna få statistik rörande vad du gjort när du besöker oss och för att vi skall kunna ge dig nytt innehåll och inte till exempel behöva fråga dig var gång du besöker oss om du godkänner våra GDPR-villkor eller att det sparas en ”kaka” på din dator.
Vi sparar också din epostadress för att kunna skicka dig vårt nyhetsbrev eller hantera din inloggning i vårt forum, om du bett om det vill säga. Då du prenumererar på nyhetsbrevet eller begär inloggning till vårt forum anger du också ditt förnamn eller inloggningsnamn men här kan du ange vilket namn som helst. Vissa anger även efternamn men dessa raderas så att endast förnamnet kommer att användas i hälsningsfrasen i varje nyhetsbrev.
Hoppas detta gör att du kan känna dig trygg med ditt besök hos mig här på Internet.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.
Cookie Policy
GDPR och kakor (cookies)
Den 25 maj 2018 började dataskyddsförordningen (GDPR) att gälla i Sverige och övriga EU.
Det innebär bland annat att inget företag eller organisation får spara personuppgifter som inte behövs för att leverera det du bett om och att du har rätt att ”bli glömd” så snart du ber om det.
För din kontakt med Nordh.Tech innebär det inte så mycket.
Vi sparar en kaka (cookie) vilket innebär en liten textfil med information om vad du gjort när du surfar hos oss, vi gör det för att kunna få statistik rörande vad du gjort när du besöker oss och för att vi skall kunna ge dig nytt innehåll och inte till exempel behöva fråga dig var gång du besöker oss om du godkänner våra GDPR-villkor eller att det sparas en ”kaka” på din dator.
Vi sparar också din epostadress för att kunna skicka dig vårt nyhetsbrev eller hantera din inloggning i vårt forum, om du bett om det vill säga. Då du prenumererar på nyhetsbrevet eller begär inloggning till vårt forum anger du också ditt förnamn eller inloggningsnamn men här kan du ange vilket namn som helst. Vissa anger även efternamn men dessa raderas så att endast förnamnet kommer att användas i hälsningsfrasen i varje nyhetsbrev.
Hoppas detta gör att du kan känna dig trygg med ditt besök hos mig här på Internet.