Påtvingade AI i operativsystemen
Vi MacOS användare blev mer eller mindre påtvingade implementationen utav AI i MacOS Tahoe, version 26 av operativsystemet. En trend som även Microsoft driver på ganska aggressivt i deras produkter.
Vi som användare har dess värre inte så värst mycket att säga till om i sakfrågan, och jag personligen använder mig sällan utav AI i det jag gör. Jag ser möjligheterna som tekniken medför, men har haft lite svårt för att tillämpa dem i praktiken, jag arbetar inte på det sättet helt enkelt.
Problemet med Apples AI, så som jag ser det. Är att Apple utgår ifrån, alla använder sig utav engelska tillvardags, och verkligen överensstämmer inte med den bilden. Apples språk modellen har inte stöd för många språk utöver engelskan, vist att jag kan engelska med det är inte mitt modersmål, så för min egen del så förblir det lite onaturligt och därmed lite besvärligt stundvis; det tar helt enkelt allt för lång tid att hitta alla ord ibland.
Hur det än är med den saken, tänkte ändå försöka mig på att samla in data och sammanfatta data med hjälp av AI. Anser personligen att, informationen som AI tar fram, bör granskas; man ska inte och ska inte förlita sig på att informationen som AI genereras av korrekt.
Tillämpade det tillvägagångssättet i detta projekt. Vid närmare eftertanke, idén i sig är inte dum, att tillämpa båda metoderna (ingen inblick och insyn) och se hur informationen skulle skilja sig åt. Men vet inte om jag är villig till att offra all den tid som ett sådant projekt skulle kräva i praktiken, men tanken är intressant att bolla med i vilket fall.
Projektets utformning:
- Ollama: kräver inte ständig Internet åtkomst för att det ska fungera. Baseras på Googles AI modell. Den har normala krav på hårdvara, så att gemene man kan använda sig av det i hemmet utan att för den delen bli ruinerad.
- Mac Mini M4, 16GB RAM.
- Låta AI samla in relevant data, analysera delar av det.
- Låta AI hantera referenskällor (länkar till sidor och dokument).
- Låta AI hantera översättningar (från kinesiska till engelska och så vidare).
Jag skulle kunna låta AI summera informationen i sammanhanget, men väljer medvetet att avstå ifrån den möjligheten, och det endast på grund av att jag personligen inte vill publicera AI genererad information på den här sida.
Är av åsikten, att nätet redan är nerlusat utav den typen av information, och jag vill inte bidra till att öka mängden. Det får räcka med dessa 50% som vi har idag, det är mer än vad vi borde acceptera. Vad kan vi som individer göra för att förhala vidareutvecklingen av den här typen av massproducerad information. Ganska enkelt faktiskt, sluta att besöka dessa sidor.
Gräv djupare, nöj er inte med första bästa länk som dyker upp i sökmotorerna. Har sidan inte länkar till utomstående källor, ifrågasätt då informationens tillförlitlighet. Granska språkets karaktär på sidan, känns den artificiell dvs konstlad.
Sedvanligt, så lyckades jag än en gång att avvika från ämnet. 🙂
Informationen som behandlades under projektets gång:
Detta var som en skänk från ovan, jag råka springa på det en dag av en tillfällighet och tycke i slutändan att det var ytterst intressant.
Ämnets som jag fördjupa mig i var: Kinas aggressiva fiskemetoder. Råder var och en som läser detta, till att snegla lite på ämnet för det är faktiskt vi själva som också bidrar till problematikens existens. Vi vill ha tillgång till billig mat och Kina förser oss med det i det här fallet.
Tänkte bara nämna det ytligt.
Tillbaka till huvudämnet, gällande arbetsmetoden med att låta AI sköta sökandet. Jag stötte på vissa problem stundvis, Ollama genererade väldigt många länkar till 404 sidor när det kom till att hitta PDF dokument, det var inte som så att de inte existerade på sidan men man fick gräva fram dom själv.
När det kom till vanliga HTML sidor, på den punkten så var det nästan helt problemfritt för min del. Den hitta faktiskt många bra internationella artiklar publicerade av dagstidningar, och det samma gjorde sig gällande på statliga och organisations sidor globalt.
Översättningar av dokuments innehåll från kinesiska till svenska, fungerade oväntat bra. Tror inte att det är något som görs på handvändning, för språken skiljer sig åt markant, men tycker personligen att innehållet som genererades blev ändå väldigt bra.
På den specifika punkten, så är jag väldigt nöjd med Ollama AI. Den gav mig trotts allt, möjlighet till att ta del av text på ett främmande språk, och utan den möjligheten så skulle de ha framstått som obegripliga för mig.
Verktygets funktionalitet:
För min del, så känns det väldigt konstigt att arbeta med AI. Man tvingas till att göra interaktionen genom dialog, det i sig bidrar till att sökningarna blir tidsmässigt väldigt utdragna.
Jag förstår varför, Google vill få det att framstå som att en interaktion skapas, de vill ge skenet av det. Detta är en produkt som de vill, att det ska skapa ett beroende hos användarna, ett medel som i slutändan bara har ett syfte och det är allt generera pengar åt ett företag.
Men! AI skulle i detta fall kunna göras funktionell, genom att utveckla en vettig syntax, kanske en kombination utav SQL och mänskligt språk; så att alla kan lära sig det. Då skulle jag personligen använda mig att det.
Men nu, näh. Anser att de befintliga sökmotorerna på nätet gör redan ett bra jobb och ser därmed inte riktigt poängen.
Men åter igen, jag ser möjligheterna hur det kan förbättras, men tror personligen inte att utvecklingen kommer att gå åt det hållet.